- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Поделюсь своим опытом работы с 1ps. Прогнал через сервис больше десятка сайтов, пользовался всегда только прогоном за 2 бакса (60 рублей), поскольку считаю его не только самым дешевым, но и самым эффективным, хоть и затратным по времени.
После прогона стабильно дает ТИЦ 10-30 и PR-1 (реже 2). Раньше ТИЦ-а давал гораздо больше, но времена меняются.
Но главное, что я хотел сказать - это то, что ТИЦ и PR - это еще не все, ради чего стоит делать прогон.
Рассказываю совсем недавний случай. 2 недели назад прогнал совершенно нулячий сайт. Сейчас ТИЦ-0, PR-0, но при этом Гугл полностью проиндексил сайт и имею с него трафа около 50 человек в день, а с Яндекса еще 100 человек, при том что в индексе Яндекса только главная страница и все ссылки в результатах поиска вида "найден по ссылке". Конечно, траф небольшой, но для нулевого сайта не так уж и плохо, и с моей точки зрения только ради этого стоило прогонять. Вот так вот :)
А по поводу первого вопроса в теме (страница со ссылками) я обычно делаю так:
Держу страницу со ссылками только во время прогона. Сразу же после прогона запрещаю ее индексацию в Robots.txt. Сразу - потому что проиндексироваться такая страница может очень быстро. Особенно шустрый в этом отношении Гугл - у меня был случай, когда на следующий день после прогона страница уже была в индексе Гугла. Поэтому вешать ее стоит только на время прогона, а потом либо удалять вообще, либо закрывать от индексации в Robots.txt (а через время в любом случае удалять вообще). Конечно при таком подходе часть ссылок теряется, но зато риск вылететь в бан минимальный.
Поделюсь своим опытом работы с 1ps. Прогнал через сервис больше десятка сайтов, пользовался всегда только прогоном за 2 бакса (60 рублей), поскольку считаю его не только самым дешевым, но и самым эффективным, хоть и затратным по времени.
После прогона стабильно дает ТИЦ 10-30 и PR-1 (реже 2). Раньше ТИЦ-а давал гораздо больше, но времена меняются.
Но главное, что я хотел сказать - это то, что ТИЦ и PR - это еще не все, ради чего стоит делать прогон.
Рассказываю совсем недавний случай. 2 недели назад прогнал совершенно нулячий сайт. Сейчас ТИЦ-0, PR-0, но при этом Гугл полностью проиндексил сайт и имею с него трафа около 50 человек в день, а с Яндекса еще 100 человек, при том что в индексе Яндекса только главная страница и все ссылки в результатах поиска вида "найден по ссылке". Конечно, траф небольшой, но для нулевого сайта не так уж и плохо, и с моей точки зрения только ради этого стоило прогонять. Вот так вот :)
А по поводу первого вопроса в теме (страница со ссылками) я обычно делаю так:
Держу страницу со ссылками только во время прогона. Сразу же после прогона запрещаю ее индексацию в Robots.txt. Сразу - потому что проиндексироваться такая страница может очень быстро. Особенно шустрый в этом отношении Гугл - у меня был случай, когда на следующий день после прогона страница уже была в индексе Гугла. Поэтому вешать ее стоит только на время прогона, а потом либо удалять вообще, либо закрывать от индексации в Robots.txt (а через время в любом случае удалять вообще). Конечно при таком подходе часть ссылок теряется, но зато риск вылететь в бан минимальный.
А Тиц у вас 10-30 - это при том что Вы размещаете обратки?
Как долго их храните? Думаю, могут быть санции, при обнаружении...
А Тиц у вас 10-30 - это при том что Вы размещаете обратки?
Как долго их храните? Думаю, могут быть санции, при обнаружении...
Обратки размещаю (тот самый php-скрипт от 1ps), но сразу же после регистрации запрещаю его индексацию в Robots.txt. А через пару недель удаляю его вообще.
При таком подходе думаю риск нарваться на санкции почти нулевой.
То, что многие вместо списка на PHP выбирают помойку, а потом плются - неприятно, мы скоро вообще не будем сами давать ставить такую страницу, чтобы потом зря не наговаривали на нас.
Нет уж, оставьте пожалуйста "помойку". Не все сайты крутятся на РНР.
А для улучшения сервиса, создайте, пожалуйста, свой скрипт структурированного каталога для обратных ссылок, чтобы сам мог убирать сайты, с которых ссылок нет. Ведь каталоги у Вас зарегистрированы по темам. И еще бы снять ограничение на регистрацию в не более чем 15 рубриках... Кто его знает, может мой сайт может быть занесен в каталоги всех тематик.
В общем, хотелось бы от Вас получить автоматизированный инструмент по обмену ссылок. Белых каталогов маловато. Все со временем сереют. Хотелось бы автоматизировать и перекрестный обмен ссылками.
А по поводу первого вопроса в теме (страница со ссылками) я обычно делаю так:
Держу страницу со ссылками только во время прогона. Сразу же после прогона запрещаю ее индексацию в Robots.txt. Сразу - потому что проиндексироваться такая страница может очень быстро. Особенно шустрый в этом отношении Гугл - у меня был случай, когда на следующий день после прогона страница уже была в индексе Гугла. Поэтому вешать ее стоит только на время прогона, а потом либо удалять вообще, либо закрывать от индексации в Robots.txt (а через время в любом случае удалять вообще). Конечно при таком подходе часть ссылок теряется, но зато риск вылететь в бан минимальный.
Сколько времени Вы делали прогон?
Helen27 добавил 06.09.2009 в 15:02
Hammer, похоже, отвутствует.
Скажите пож, как правильно делать прогон по каталогам 1ps
нулевых сайтов?
Я в теч месяца постепенно добавляла сайт в 200 белых каталогов, по 50 кат в неделю.
Потом сделала перерыв на неделю.
Теперь добавляю сайт в 300 каталогов ежедневно. Всего по моей теме набирается 3000 каталогов.
Вопросы:
1. Такая схема правильна?
2. Судя по всему, я получу не больше 1000 бэков на свой сайт. (Мож и меньше..)
Выбираю тематичные каталоги с ТИЦ от 20 и выше.
КАКОЙ прирост ТИЦ могут дать 1000 каталожных ссылок?
=======
Я первый раз делаю прогон.
Helen27 добавил 06.09.2009 в 15:24
Если запретить для Яндекса индексацию страницы с линками каталогов в robots.txt во время прогона, каталоги смогут отследить свои обратные ссылки? Или тожe не увидят?
Сколько времени Вы делали прогон?
Прогонял сразу через всю базу в течение одного дня, с пошаговой регистрацией не заморачивался.
В любом случае, линки индексируются не одновременно, на это нужно время.