- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Предлагаю оживить тему в свете событий с cloudlfare.
Кто как фильтрует
Все ведь в любом случае закончится блоком или можно как то условия выставлять в аХтессе?
Наверное только и остается пустой реферер+айпи и кому то полный блок по айпи.
Жалко что не только лишь все © могут в хтаксессе по ASN блочить.
Кто как фильтрует ботов без cf?
Мы с программистом пилим и обкатываем свой "брандмауэр" под Битрикс,
Небыстро, нудно, но совершенно точно к нужному результату придём.
Со своей статистикой, выгрузками, точечной и групповой работой, правилами по признакам.
Основной принцип - собираем списки хостеров, откуда валят поведенческие боты, грузим им вместо сайта имитированную заглушку без загрузки Метрики и подсовываем капчу, если вдруг человек и капчу проходит - перенаправляем на рабочий сайт c Метрикой.
+ логирование и возможности для стат. аналитики (кто/как/когда/куда/в каком объёме) для мониторинга и принятия решений.
С htaccess такой возможности нет, если доступ запретил, то возможный пользователь не попадёт на сайт.
Я тоже в своем "брандмауэре" пытался мутить с серыми списками и собирал кучу инфы.
Ммм.. классно, значит я не один такой :)
В итоге, после анализа многомесячного, сразу отправляю на фильтрацию, капча или просто запрет. А то результат примерно одинаковый, а на анализ надо море ресурсов. А так ресурсы не тратишь. 😀
В целом - да, но в моём случае есть целый ряд "но" в пользу точечной аналитики.
1) Анализом всё равно приходится заниматься и это в целом штатная работа в контексте анализа трафика для клиентского сопровождения, с которым работаем не первый год.
2) Точнее и шире понимаешь тенденции в наплыве бот трафика; попадаются довольно интересные решения и это всё полезно для накопления профильного опыта.
Обычно у меня подход такой - заметный бот трафик приходит "готовой схемой", например, наплыв ботов с реферерами по ссылочному переходу, где естественно ссылки никакой нет и быть не может (реферер поддельный), вот там как правильно сразу видны подсети и я баню по ASN маской.
Так что в моём случае боты просто гуляют по заглушкам без Метрики, которые выглядят как обычные страницы :)
Если боты капчу проходят (а иногда ботоводы тратятся и на капчу) - отправляю в черный список, где капчи нет и они просто водят мышкой по имитированной заглушке.
Ммм.. классно, значит я не один такой :)
В целом - да, но в моём случае есть целый ряд "но" в пользу точечной аналитики.
1) Анализом всё равно приходится заниматься и это в целом штатная работа в контексте анализа трафика для клиентского сопровождения, с которым работаем не первый год.
2) Точнее и шире понимаешь тенденции в наплыве бот трафика; попадаются довольно интересные решения и это всё полезно для накопления профильного опыта.
Обычно у меня подход такой - заметный бот трафик приходит "готовой схемой", например, наплыв ботов с реферерами по ссылочному переходу, где естественно ссылки никакой нет и быть не может (реферер поддельный), вот там как правильно сразу видны подсети и я баню по ASN маской.
Так что в моём случае боты просто гуляют по заглушкам без Метрики, которые выглядят как обычные страницы :)
Если боты капчу проходят (а иногда ботоводы тратятся и на капчу) - отправляю в черный список, где капчи нет и они просто водят вышкой по имитированной заглушке.
Безусловно без анализа нельзя, но я сначала фингерпринт практически собирать начал, было интересно, но не практично в одно лицо, да и не нужно. 😎 Немного сравнений, графиков, статы и инфы по ip, и жизнь проще))
Все ведь в любом случае закончится блоком или можно как то условия выставлять в аХтессе?
Все давно подробно расписал.
https://alaev.net/zametki/staroe/blokirovka-botov-htaccess
От начала и до конца прочитай и все ответы на твои вопросы будут раскрыты.
Все давно подробно расписал.
Нужно приписку делать. Лимите на ссылку не жать 🤣
Тогда обязательно нажмут, и будут знать как выглядит заглушка Cloudflare о блокировке.
Нужно приписку делать. Лимите на ссылку не жать 🤣
Если из спамного диапазона ростелекома, тогда сюда https://yadi.sk/d/7m5wQQnfh5wu0A
Если из спамного диапазона ростелекома, тогда сюда https://yadi.sk/d/7m5wQQnfh5wu0A
coderhs.com is coming soon
Предлагаю оживить тему в свете событий с cloudlfare.
Кто как фильтрует ботов без cf?
Собственный серверный механизм. Пока в обкатке базовые алгоритмы «Легионер», «Дятел», «Носорог», «Фантомас», «Рецидивист» – помогают при фильтрации примитивных ботов и краулеров (монстры типа «Битерики» – в чёрный список на первом шаге и соответственно последующая фильтрация их уже не касается). Фильтрация многоступенчатая: разовая блокировка за нарушение директивы, при нарушении набора директив за интервал времени – профилактическая блокировка на короткий период времени, при накоплении нескольких кратковременных блокировок – временная блокировка на сутки, плюс журнал «активистов» на анализ. Особо отличившиеся – в кают-компанию к «Битерике».