- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
fio всё прекрасно показывает, зря вы так)
дешевые домашние nvme неплохо выдерживают долговременное чтение - на них отлично укладывать какие-нибудь большие и редкоменяемые куски кеша или "холодные" данные - например на intel 760p мы разложили шарды greenplum (чтения там много, запись же может и потерпеть)
но "для всего" и "под серьёзную нагрузку" решение плохое - тут даже спорить не буду
У нас один нагруженный сервер субд может нести в себе до трёх типов дисков:
1) intel optane или хорошие nvme (pm963, p4600, p35xx) - под wal и горячие данные
2) sata ssd enterprise (pm863, s3510) - под индексы холодных данных и тёплые данные
3) sata ssd desktop / nvme desktop (что найдётся) - под холодные или редкоменяемые данные
Bananzz, fio показывает отличную производительность домашних NVMe, да и под маленькой нагрузкой производительность хорошая. А дай им хорошую нагрузку, разместив high load проект, и их цена становится совершенно неоправданной.
Если нужно производительно тогда Enterprise SSD, а если недорого то простые SSD. А хоум NVMe дороже, но выжать из них больше не получится. Это другой интерфейс, но не более.
NVMe просто расширяет интерфейс для работы с данными без костылей для жестких дисков и вешает его на PCIE шину, что ускоряет до ширины шины. Однако еще и зависит что за шина и какой версии. Например если версия 3 и ширина x4 то повесив 2 хороших NVMe диска в raid0 и они зальют шину.
При этом замедление будет не линейным, а довольно хаотичным.
Bananzz, fio показывает отличную производительность домашних NVMe, да и под маленькой нагрузкой производительность хорошая. А дай им хорошую нагрузку, разместив high load проект, и их цена становится совершенно неоправданной.
Если нужно производительно тогда Enterprise SSD, а если недорого то простые SSD. А хоум NVMe дороже, но выжать из них больше не получится. Это другой интерфейс, но не более.
Зависит от времени теста. На коротких тестах в минуту-две они себя показывают молодцами.
На долгих тестах всё зависит от характера нагрузки (write-тесты весь десктоп не сливает и это нормально) и качества охлаждения тестового стенда.
По опыту работы с хайлоад проектами (2k+ rps в бэкэнды) - там очень разнородные данные и куда как важнее качество сети внутри кластера - чтобы не лагали десятки серверов мемкеша и всё такое :)
Но, да, на тех масштабах о десктопах речь не идёт и счет памяти в серверах БД идёт уже далеко не на десятки гигабайт.
На текущих проектах (до 500 rps) можно использовать декстопное железо, но это надо делать с умом. И это позволяет серьёзно экономить не выбиваясь из целевого аптайма.
NVMe просто расширяет интерфейс для работы с данными без костылей для жестких дисков и вешает его на PCIE шину, что ускоряет до ширины шины. Однако еще и зависит что за шина и какой версии. Например если версия 3 и ширина x4 то повесив 2 хороших NVMe диска в raid0 и они зальют шину.
Формально вы правы.
На деле же надо очень постараться чтобы повесить пару нвмех на Pcie-x4. Да и дисков (шта? они уже даже не круглые :D) которые Pcie-x4 в состоянии уложить в полку не очень много, стоят они серьёзных бабок и обычно ставятся в серверные платформы, где х4 линий хватает всем.
Другое дело что софтварный рейд из хороших NVMe портит одну из их самых вкусных и дорогих характеристик - низкую латентность, позволяя получить прирост bandwidth (ну и ещё и CPU потратить, ага).
Мы обычно не строим рейды, а собираем lvm поверх нескольких дисков - просто потому что от lvm нам никуда не деться из-за особенностей гипервизора.
Формально вы правы.
На деле же надо очень постараться чтобы повесить пару нвмех на Pcie-x4. Да и дисков (шта? они уже даже не круглые :D) которые Pcie-x4 в состоянии уложить в полку не очень много, стоят они серьёзных бабок и обычно ставятся в серверные платформы, где х4 линий хватает всем.
Другое дело что софтварный рейд из хороших NVMe портит одну из их самых вкусных и дорогих характеристик - низкую латентность, позволяя получить прирост bandwidth (ну и ещё и CPU потратить, ага).
Мы обычно не строим рейды, а собираем lvm поверх нескольких дисков - просто потому что от lvm нам никуда не деться из-за особенностей гипервизора.
PCIe-x4 особенно какой-нибудь "шаренный" на домашней мамке Hetznerовского EX возможно без проблем.
Например PX у них мамки идут с шиной PCIe-x4 3.0 что равняется 3.94 ГБ/с, Samsung 970 PRO выедает 3.5 ГБ/с. Хоть какая-нибудь мелочь, чуть кривой биос и такой быстрый NVMe начнет занижать скорость, причем не очень опрятно.
Учитывая, что это мы рассмотрели премиум линейку, что творится в EX я даже сказать не могу.
На самом деле встречал не раз когда NVMe портов 2, а ведут в одну шину PCIe-x4 или даже 3 порта.
PCIe-x4 особенно какой-нибудь "шаренный" на домашней мамке Hetznerовского EX возможно без проблем.
Например PX у них мамки идут с шиной PCIe-x4 3.0 что равняется 3.94 ГБ/с, Samsung 970 PRO выедает 3.5 ГБ/с. Хоть какая-нибудь мелочь, чуть кривой биос и такой быстрый NVMe начнет занижать скорость, причем не очень опрятно.
Учитывая, что это мы рассмотрели премиум линейку, что творится в EX я даже сказать не могу.
На самом деле встречал не раз когда NVMe портов 2, а ведут в одну шину PCIe-x4 или даже 3 порта.
я так подозреваю, 970про такое выедает только в синтетических тестах с адской глубиной очереди и большими блоками и очень недолго :)
960про тоже вроде был кошерный и классный, только нифига под боевыми нагрузками не мог
в ЕХ свежих стоят MSI Z370 Gaming
декстопные процессоры от интелов не умеют Pcie старше 3.0 (смотри ark) и несут всего по 16 линий Pcie в процессор, z370 ещё нормально добавляет (+24 линии)
Думаю, что даже там всё будет работать нормально :)
Промышленный U.2 реализует также 4 линии pcie (как и любой типовой nvme-диск), и пока почему-то даже интелы на дорогущих мамках под много xeon scalable это не меняют, хотя туда втыкают как раз правильные и дорогие p4600.
Даже там в bandwidth не упираются.
Всё потому что NVME ценнен показателями tps и латентностью в первую очередь.
Не гигабайты в секунду надо сравнивать)
Гигабайты в секунду тоже важны. Быстрее сброс данных быстрее работа.
Латентность, иопсы и гигабайты/с взаимосвязаны, считать их отдельно особо смысла не имеет.
Насколько я вижу (https://www.msi.com/Motherboard/Z370-GAMING-PLUS/Specification#) там шаринг тоже идет.
Гигабайты в секунду тоже важны. Быстрее сброс данных быстрее работа.
Латентность, иопсы и гигабайты/с взаимосвязаны, считать их отдельно особо смысла не имеет.
Насколько я вижу (https://www.msi.com/Motherboard/Z370-GAMING-PLUS/Specification#) там шаринг тоже идет.
давайте мы всё-таки будем точны: существует размер блока и глубина очереди
а также вопросы о буферизации (принудительном или отложенном sync при) записи
Дальше - чем больше блок и выше глубина очереди (при той же латенси), тем большую вы получаете производительность в KBps.
Латентность диска является ключевой, так как именно она показывает _сколько времени заняла операция_. Не суть важно какая и какого размера. И на какой глубине очереди.
Меньше латенси - больше успели сделать. Больше латенси - больше ждали завершения операции и меньше сделали.
Байты в секуду вытекают прямо из показателя латентности. Самый жёсткий способ проверить запись диска - пописать в него с принудительной синхронизацией и глубиной очереди 1 (=журнальный режим; fio --ioengine=libaio --sync 1 --direct=1 --name=test --bs=4k --iodepth=1 --readwrite=write --runtime 60 --filename=/dev/sdXX)
--
По поводу "шаринга" Pcie-lanes. Мне неизвестно как подобное может реализовываться. Pcie-lane используется в режиме "точка-точка". То есть соединяет напрямую устройства (либо устройство и коммутатор).
На любой матплате pcie-линии есть у процессора и у чипсета. (Сколько и каких - смотрите спеку чипсета и проца соответственно).
Дальше начинаются детали. Иногда разъёмов распаяно больше, чем у нас умеет система. Это значит что линий в разъём подано меньше (и в х16 разъёме 4 линии или даже одна) или же есть Pcie-hub (он же - коммутатор).
Соединение проц-чипсет занимает линии. Соединение проц-память также занимает линии. Коммутатор - это отдельная микруха, которая стоит денег. Просто так её никто не ставит.
И дальше есть вопрос топологии - не все линии одинаково полезны (линии от процессора с ТЗ процессора лучше, так как меньше задержка) а самые "плохие" - линии из хаба, потому как до процессора (который данные и молотит) ехать дольше всего.
Но я на геймерских платах не видел хабов вообще :)
К какому коммутатору (устройству) подключен какой разъём - есть вопрос. Каждый производитель решает это по-своему.
Соответственно, можно стать жертвой маркетолога и использовать х16 дырку в режиме х1 - но это значит что кто-то не ходил в биос и не настраивал ничего и хорошо бы почитать матчасть :)
С м.2 налажать по линиям невозможно.