- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
тем более доры бы с этой фишкой бы все в топах сидели
хороший бы траф был
И с Гугл та же история была..
В последнее время Я действительно "колбасит" - то он тормозит, то сайты летают по ТОПу туды-сюды... Возможно все таки есть доля истины в подсчете переходов на сайты из результатов? Может щас это и не учитывается или учитывается как то "эксперементально" (в некоторых тематиках, например), т.е. Я обкатывает эту идею.
Или банально собирает статистику, чтобы через некоторое время проанализировать ее, и если в ней будет смысл - ввести ее как доп.фактор при ранжировании. А учитывать время, проведенное на каком либо сайте можно по банальным "кукам" (благо средств наверняка у Я хватает)...
доказательства пожалуйста. или хоть ссылочки на обсуждение..
Воспользуйтесь поиском, эта тема обсуждалась.
Когда минусы ставите - подписывайтесь пожалуйста.
со стороны яндекса было-бы вполне разумно учитывать переходы, так как это фактически естественная сортировка по релевантности.
тот-же самый PR - это аналитическая оценка вероятности нахождения пользователя на странице. а подсчет переходов - статистическая выборка. так что не вижу особой разницы в принципе.
к тому-же можно можно рассматривать не абсолютные величины,а вычислять средний CTR и в зависимости от него двигать сайт вниз-вверх.
Всем почтение...
система должна быть довольно сложной.. что бы по статистике заходов отслеживать на сколько "сайт" соотвествует запросу и анализ тут нужен не только возратности на поисковик .. и заход на другой сайт..
У гугла в планах было ... довольно хорошо расписано.. что они хотят внедрить анализ прохода с поисковика (время на сайте ... переходы на сайте , возрат на поисковик) ... но похоже что это все пока в планах.
и на данный момент с вероятностью 99% .. в яндексе выдача от этого (количества заходов на другие сайты , после "сваливания" с сайта поиска первого захода (или второго) -- не зависит.
это мое ихмо, но на основе наблюдений по работе.
Была большая тема от Mr_Promoter - Домыслы на закате эпохи ссылок - автор также делал предположение о том, что клики в серпе (которые, действительно, подсчитываются) могут влиять на серп.
Там же высказали множество контр-аргументов:
1) Это обещает славные времена для накрутчиков
2) Обратная связь - позиция зависит от кликов, клики - от позиции
3) Сниппет != сайт, сделать привлекательный сниппет можно и автоматически (это к вопросу об анализе кликабельности сайтов, а не о цепочках кликов)
4) Масштабный анализ поведения пользователя - весьма ресурсоемкая задача, а у Яндекса сейчас с этим проблемы, если верить слухам
5) ИМХО, самое главное - есть много "поисковых задач" (кому-то нужен конкретный сайт, кому-то конкретная фактическая информация, например синтаксис какой-нибудь функции Javascript, который можно найти прямо в сниппете, вообще никуда не кликая), кому-то нужно сравнить цены на товар, и т.д. Ну, и есть еще куча "поисковых стратегий", которые зависят от привычек конкретного пользователя: кто-то будет листать 50 страниц, кто-то переформулирует запрос, а кто-то вообще пойдет в гугл.
Так вот, по всем этим причинам вероятность того, что на кликах в выдаче будет основываться сильный фактор ранжирования - имхо очень мала. Я думаю, что статистика по кликам нужна Яндексу в первую очередь для "ручной" оценки качества выдачи - т.е. эти данные потом просматривают аналитики и придумывают специальный дизайн, чтоб по директу больше кликали (киргуду), ну и всякие новые фильтры =)
С другой стороны, вполне допускаю возможность использования информации по кликам в качестве одного из множества незначительных факторов. Действие этого фактора может быть настолько незначительным, что вычислить его экспериментально будет очень сложно, а тратить ресурсы на манипуляции незначительным фактором, существование которого, к тому же, вызывает сомнения - оптимизаторы вряд ли будут. Вообще, введение множества примерно равнозначных разнообразных факторов и фильтров - хороший способ испортить жизнь многим оптимизаторам. Другой вопрос, связаны ли "качество жизни оптимизаторов" и "качество выдачи"... но это уже оффтоп =)