- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Парни ситуация такая. Столя в .htaccess редирект и сайт не работал после подключения cloudflare, так так входил в цикл переадресации. В cloudflare всё отключал в TLS и шиврование полностью, это не помогло почему то. Пришлось убрать редирект в .htaccess вида
Далее сайт стал доступен по http, но в cloudflare все настроил и он работает и переадресовывает на https. Кроме того, сервис bertal.ru показывает всё четко 301 с http яндекс и гугл ботом. Теперь вопрос. Почему в кабинете яндекс веб-мастера ответ от сервера 200 ОК? а не 301. Так же, открыл графу "Статистика обхода" в http версии сайта и заметил, что страницы стали 200, а не 301 как раньше. В чем прикол то? Что можно сделать?
ничего не делать. если клаудфлар редиректит на https значит все нормально будет.
Кто подскажет как помимо Biterika заблокировать еще вот этих ботов?
Причем после блокировки их в Cloudflare спустя несколько месяцев они начали переходить на Главную из поиска🤔
Кто подскажет как помимо Biterika заблокировать еще вот этих ботов?
Причем после блокировки их в Cloudflare спустя несколько месяцев они начали переходить на Главную из поиска🤔
А с чего вы решили, что это боты?
Если переход идет из поиска, тогда у Яндекса уже больше шансов отличить бота от юзера.
А с чего вы решили, что это боты?
Если переход идет из поиска, тогда у Яндекса уже больше шансов отличить бота от юзера.
Потому что из этих же сетей также идут прямые заходы + заходы с рекламы которой на самом деле нет + большой % отказов с этих сетей.
Потому что из этих же сетей также идут прямые заходы + заходы с рекламы которой на самом деле нет + большой % отказов с этих сетей.
Если переходы по рекламе делаются через спам в utm метках, то они легко блокируются в cloudflare.
Проверяйте параметр URI на вхождение utm и пускайте такие переходы на блокировку (если у вас рекламы на сайте нет).
Переходы ботов из поиска никак не отфильтровать от юзеров. Как вариант пускать переходы всех сомнительных сетей на капчу, но таким образом вы будете показывать капчу и обычным пользователям, соответственно есть вероятность, что потеряете часть живого трафика, т.к не все будут ждать проверку CF.
ими пользуются обычные пользователи, вы этим забаните обычных пользователей. а ботоводы завтра все равно пойдут с других ипов.
Настроил CF, как описано на vc ru, и прямые заходы уменьшились, но выросли "внутренние переходы" с сетью IPv4 address block not managed by the RIPE NCC в большей степени. Вот какие правила стоят в CF:
1. Skip - (cf.client.bot) or (http.user_agent contains "Mail.RU_Bot") or (http.user_agent contains "; +http://yandex.com/bots") or (http.user_agent contains "StackRambler") or (http.user_agent contains "msnbot") or (http.user_agent contains "Googlebot")
2. Managed Challenge - (ip.src in {::/0} and not ip.geoip.asnum in {13238}) or (not ssl and not ip.geoip.asnum in {13238})
3. JS Challenge - (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"}) or (http.referer eq "")
4. Block - (ip.geoip.asnum in {35048 43966})
Как бороться с внутренними переходами?
Настроил CF, как описано на vc ru, и прямые заходы уменьшились, но выросли "внутренние переходы" с сетью IPv4 address block not managed by the RIPE NCC в большей степени. Вот какие правила стоят в CF:
1. Skip - (cf.client.bot) or (http.user_agent contains "Mail.RU_Bot") or (http.user_agent contains "; +http://yandex.com/bots") or (http.user_agent contains "StackRambler") or (http.user_agent contains "msnbot") or (http.user_agent contains "Googlebot")
2. Managed Challenge - (ip.src in {::/0} and not ip.geoip.asnum in {13238}) or (not ssl and not ip.geoip.asnum in {13238})
3. JS Challenge - (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"}) or (http.referer eq "")
4. Block - (ip.geoip.asnum in {35048 43966})
Как бороться с внутренними переходами?
2 и 3 пункты: Managed Challenge и JS Challenge
Те, кто проходит эти правила, отображаются как внутренние переходы.
Настроил CF, как описано на vc ru, и прямые заходы уменьшились, но выросли "внутренние переходы" с сетью IPv4 address block not managed by the RIPE NCC в большей степени. Вот какие правила стоят в CF:
1. Skip - (cf.client.bot) or (http.user_agent contains "Mail.RU_Bot") or (http.user_agent contains "; +http://yandex.com/bots") or (http.user_agent contains "StackRambler") or (http.user_agent contains "msnbot") or (http.user_agent contains "Googlebot")
2. Managed Challenge - (ip.src in {::/0} and not ip.geoip.asnum in {13238}) or (not ssl and not ip.geoip.asnum in {13238})
3. JS Challenge - (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"}) or (http.referer eq "")
4. Block - (ip.geoip.asnum in {35048 43966})
Как бороться с внутренними переходами?
Для ботов Яндекса замените проверку по User-agent на проверку AS: ip.geoip.asnum eq 13236 и ip.geoip.asnum eq 208722
Проверку http.user_agent contains "Googlebot" тоже уберите, т.к правило cf.client.bot и так пропускает всех гугл ботов. Куча ботов спам ботов указывает у себя в user-agent - Googlebot и проходят к вам на сайт без проверки.
Пункт 2. я убрал, т.к много нормального трафика идет с IPV6.
Посмотрите на какие страницы идут прямые заходы. Если на внутренние, то можно блокировать по условию проверки: пустой реферер + спамная AS сеть + внутренний URL.