- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Коллеги, хотелось бы получить ответы на следующие вопросы:
1) Сколько реально могут проиндексировать поисковки страниц с одного домена (Рамблер с Апортом и Гуглом берут неплохо, Яндекс по 400 и нечасто).
2) Зависит ли это от CY или других параметров?
3) Сколько Вам удавалось максимально иметь посетителей в сутки на 1 домен с поисковок?
4) Стабильно ли это количество в течение определённого времени (допустим, месяц).
5) Не наблюдали ли вы такой картины: хорошо оптимизированный сайт с большим объёмом материала и весомым CY/PR/etc имеет достаточно много релевантных посетителей с поисковых машин (допустим, 10 тысяч в сутки). После чего, по прошествии какого-то времени это количество без объяснимых причин падает. Проще говоря - поставляет мне Яндекс, допустим, много хороших пользователей. И тут он решает - а что это мы этому перцу гоним столько народу забесплатно, ведь немало хороших людей берут у нас для этого Я.Директ, Я.Товары и т.д. И урезают мне этот трафик раз этак в 10... Насколько это реально?
Насколько я знаю, из вышеозначенных, толко Апорт прямо заявил об ограничении количества индексируемых страниц в зависимости от ИЦ вычисляемого по их собственным алгоритмам.
Если сайт грамотно оптимизирован и имеет много качественного контента, а не выскочил из-за поискового спама - кол-во посетителей тоже стабильно.
Добавлю: Google заявил об ограничении числа динамических страниц с одного домена. По неофициальной информации - ограничение зависит от PR.
http://www.google.com/webmasters/2.html
Нет, просто мусорный трафик не интересует. Имеется в виду именно деловые запросы, по теме сайта. Если на сайте представлено много контента, то охват аудитории весьма широк.
Сейчас посмотрел статистику сайтов с top.mail.ru - из тех, кто открывает статистику по реферерам - ссылок с поиковых машин немного. В пределах сотен или пары тысяч...
Не в кассу, но по теме: сейчас мой сайт получает в день столько же посетителей с поиска, сколько два года назад получал как раз за год :)
А сколько в цифрах, если не секрет?
Посмотри гостевую хотлоговскую статистику сайта Григория.
http://www.be1.ru/stat/?url=http%3A%2F%2Fwww.be1.ru%2F&rnd=212039490
http://www2.hotlog.ru/cgi-bin/hotlog/site_stat?id=25994
Не секрет, но и хвастать особо не чем. В ноябре было в среднем 227 посетителей в день с поиска (6806 за месяц)
Inheritus, спасибо за ссылки. Однако, насчёт http://www2.hotlog.ru/cgi-bin/hotlog/site_stat?id=25994
На сайт бе1.ру, как я понял, идут в основном на каталог сайтов по абсолютно нерелевантным запросам. Это, на мой взгляд, не очень интересно, разве что для поднятия в рейтингах...
Ну да, всё правильно. Но ты и вопрос такой задал, на который внятного ответа просто не дождешься - слишком общий. Можно по какой-то конкретной тематике прикинуть порядок объема трафика с поиска при очень хорошем позиционировании. И то - всё будет настолько приблизительно, что я сомневаюсь в практической пользе таких вычислений :).
Нет, я получил ответ на свой вопрос, спасибо :)