- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, хочу закрыть дубли на сайте, которые генерируются большим количеством настроек поиска.
Те, что хочу закрыть имеют примерный вид:
site.ru/cat1/rating/?ao_cat=1&ao_ocenki=&ao_model=&n=20&g=
site.ru/cat2/rating/?ao_ocenki=&ao_model=&n=50&g=
т.е. все, что имеют параметры "ao_cat" и "ao_ocenki" не нужны.
Disallow: /*/rating/*?ao_cat
Disallow: /*/rating/*?ao_ocenki
правильно так?
Еще есть вот такие URL:
site.ru/cat3/rating/?g=2&n=10&ao_cat=1
site.ru/cat4/rating/?g=10&n=50&ao_cat=3
их тоже нужно закрыть, но
site.ru/cat3/rating/?g=2 закрыть нельзя, т.е. надо убрать все, что будет после ?g=n, где n - любое число.
Буду благодарен.
Можно же просто :
User-agent: *
Disallow: /*?ao_cat
Disallow: /*?ao_ocenki
Проверьте на Я.Вебмастер Он подскажет.
А также есть специальная тема на серче.
Еще есть вот такие URL:
Disallow: /*&ao_cat=
запрет Disallow: /*?ao_cat можно заменить на
Disallow: /*ao_cat=
тогда он закроет и первый и второй тип ссылок
/cat1/rating/?ao_cat=1&ao_ocenki=&ao_model=&n=20&g=
/cat3/rating/?g=2&n=10&ao_cat=1
Вот пример правильного robots.txt
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /feed
Disallow: /comments
Disallow: /category/*/*
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Allow: /wp-content/uploads
# Google Image
User-agent: Googlebot-Image
Disallow:
Allow: /*
# Google AdSense
User-agent: Mediapartners-Google*
Disallow:
Allow: /*
# Internet Archiver Wayback Machine
User-agent: ia_archiver
Disallow: /
# digg mirror
User-agent: duggmirror
Disallow: /
Sitemap: http://www.veloblogger.ru/sitemap.xml
User-agent: Yandex
Crawl-delay: 5
Disallow: /tag
http://web-creature.net
User-agent: Yandex
Crawl-delay: 5
Пример г-роботса.
Вот пример правильного robots.txt
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /feed
Disallow: /comments
Disallow: /category/*/*
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Allow: /wp-content/uploads
# Google Image
User-agent: Googlebot-Image
Disallow:
Allow: /*
# Google AdSense
User-agent: Mediapartners-Google*
Disallow:
Allow: /*
# Internet Archiver Wayback Machine
User-agent: ia_archiver
Disallow: /
# digg mirror
User-agent: duggmirror
Disallow: /
Sitemap: http://www.veloblogger.ru/sitemap.xml
User-agent: Yandex
Crawl-delay: 5
Disallow: /tag
http://web-creature.net
Убейтесь, пож-ста, об стенку самостоятельно, перед тем как нести ересь с левыми ссылками.