- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сегодня посмотрел серверную статистику кто ко мне приходил.
И что я увидил.. Яху пришла.. покушала чуть чуть и ушла. Приходила вчера кушала другое.
Приходил гугл (пришел на субдомен) попросил robots.txt получил 200.. обиделся.. сходил на главный домен... его съел по всей видимости (там 1 страница) и ушел.
Так уже продолжается 5-й день к ряду. Карту я гуглу не скармливал, так как на субдомене у меня лежит страница на которой фактически есть все ссылки на другие страницы.
Вопрос у меня следующий: какие есть варианты для разруления данной ситуации ?
1. прописать в robots.txt что конкретно можно индексировать.
2. скормить карту сайта ..
3. Не достаточно высокий PR?
4. ваш вариант..
п.с. просто не очень понятна логика бота. Да я понимаю что как бы съесть сайт за раз это было бы круто и что время сканеров то же ценно, и все хотят что бы их сайт боты посещали частенько. Вот пытаюсь понять в чем моя ошибка ?
Спасибо за мнения
А что в robots.txt прописано? И заочно диагноз не поставить...
А файла robots.txt нет вообще.
попросил robots.txt получил 200
Как же нет, если 200 ? Вы бы URL озвучили.