- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У меня такой вопрос: научится ли Яндекс когда-либо работать с большими сайтами?
Давно бьемся: проиндексировано примерно 35к страниц. Если индексится какая-то новая страница, то значит какая-то старая обязательно вылетит, причем не исключено, что вылетит главная или еще какая-то "важная" страница.
Такое замечено не на одном сайте, а у многих крупных порталов. Такое впечатление, что Яндекс не позволяет сам себе индексировать больше определенного количества страниц. Т.е. на сайте много больше страниц, чем проиндексировано Яндексом, причем количество страниц на сайте постоянно растет, что к сожалению никак не сказывается на их количестве в индексе Яндекса.
Может, я ошибаюсь. Если так, то поправьте.
О том, что сайту не хватает ИЦа речи нет. Уникальность контента тоже на высоте.
У кого какие мысли на этот счет? Интересно услышать любые мнения...
При >>35к страница уникальность на высоте, вощем на мой взгляд сомнительно (если это не форум и т.д.), но не уверен что это влияет на индексацию.
Скорее всего как только он берет новые, он выбрасывает самые старые.
Пока на своей шкуре видел, у сайта с 3к страниц (именно текстов), отпадают те страницы, где статика и давно ничего не менялось. Очень напоминает робот рамблера, который если видит что не менялось, не переобходит, а хранит старую версию (судя по датам).
Может стоит их чемнить обновлять
Дим, буквально на днях говорили.
Вот, почитай: /ru/forum/24803
Нет. Страницы - это именно тексты (форум не в счет, хотя там тоже оооочень много страниц): новости, обзоры и т.д. и т.п.
Для сравнения индексация другими поисковиками:
(напомню, что в яндексе 35к страниц)
google.com - 92к
yahoo.com - 88к
alltheweb.com - 88к
по-моему, цифры говорят сами за себя. И такая ситуация не день, ни два, ни месяц... ;)
Seventh Son, интересная тема, спасибо.
(напомню, что в яндексе 35к страниц)
google.com - 92к
yahoo.com - 88к
alltheweb.com - 88к
Да, говорят о том, что у них роботы другие
Из своего опыта могу только сказать, очень долго , тотже гугле видел только одну страницу, хотя все остальные работали нормально... потом рассосалось само.
А о больших сайтах, возможно у робота есть не лимит на страницы, а лимит на время, которое он уделяет сайту.
- Если время возврата отклика сервером большое, то он исчерпав лимит,
останавливается.
- Возможно у него лимит на массив внутренних ссылок....
- Некоторые хост-платформы сами режут обращений от одного юзера (ИП) больше сколькито. Може Я на это и останавливается, а другие приходят через время.
- Иногда втечалось, что виртуальный сервер перепускается каждые сколько=то часов. Може Я берет, что успевает за это время, а потом бросает.
dimok, alltheweb.com обслуживается роботом Яху, так что 88к -- это аппетиты Slurp.
Интересна еще статистика msnbot и StackRambler.
Вынос разделов на поддомены не решит проблему для Яндекса, как для Google?
Если индексится какая-то новая страница, то значит какая-то старая обязательно вылетит, причем не исключено, что вылетит главная или еще какая-то "важная" страница.
а я что-то не замечал, чтобы вылетали старые страницы.
единственное, что могу заметить, так это прожорливость робота яндекса - жрет тысячами, а в индекс попадают сотни. т.е. скорей всего умный индексатор помещает в индекс только наиболее значимые, по его мнению страницы.
тогда у меня он считает самыми важными - сборка с RSS каналов. Повторяемость этого материала - почти бесконечна. Странно.
Конечно молание Я имеет свой смысл. Хороший актер держит паузу сколько может....
Чего стоило заявление Я в пятницу об изменениях алгоритмов, когда со вторника народ сидел на таблетках.
Может придет время, и они смогут все новые мысли описать словами
у меня подозрения на то, что ключевым моментом являются именно сами странички, ссылки тут не причем: месяца два один сайтик создал, индексируется Яндексом все это время, медленно и уверенно, где-то по 5-7к за неделю, сейчас уже почти 47к в индексе, посмотрим что будет дальше :) а ссылок на него - буквально с десятка сайтов
Что-то мне тоже не верится в уникальность контента на 35К страниц...
Возможно, что он считает первоисточником контента другой сайт, например у меня он отказывается индексировать RSS с яндыкс.ньюс :) после того, как они стали более похожи на оригинал. А вот, когда вокруг каждой новости было еще много другого контента, они спокойненько проглатывал пачками свои же новости.