- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
R-PageRank - бесплатная программа для расчёта условного веса на страницах, так называемого PageRank.
Для чего нужен расчет веса? Для построения оптимальной перелинковки, которая позволит концентрировать максимальный внутренний вес на страницах предназначенных для сбора трафика, что позволяет существенно подняться по нч запросам.
Принцип работы:
Паук собирает все ссылки с вашего сайта, после этого происходит расчет веса каждой страницы, собранная информация сохраняется в csv.
Для удобной обработки csv файла лучше всего использовать excel.
Страницы запрещенные в robots.txt или ссылки с nofollow могут игнорироваться.
Скачать: R-PageRank
Update.
Небольшие исправления с поиском ссылок на страницах.
Паук собирает все ссылки с вашего сайта, после этого происходит расчет веса каждой страницы
Только внутренние, что ли? А расчет по формулам статьи "Растолкованный пейджранк"?
За бесплатно ещё и внешние подавать ? :) Или ты имел ввиду только исходящие учитывать ? Дак смысла в этом нет.
Расчет основываясь на англоязычной статье википедии + паре других.
Не уловил смысла в ответе... поясни:)
для теста набросал сайт из 5 страниц http://live.pl.ua
с главной идет ссылки на 4 страницы, на остальных страницах - ссылок больше нет.
скрипт правильно нашел все страницы, расчитал вес - у всех стринац оказался одинаковый вес - 0,2
это правильно? мне казалось, что у главной должен быть меньший вес.
Алгоритм в той статье чисто теоретический, кстати ;)
За бесплатно ещё и внешние подавать ?
Ну тогда "это" к расчётам PR отношения не имеет. Так.. расчёт внутреннего веса. Показатель, конечно нужный (на больших сайтах), но это не PR.
Кстати, софтина справиться с.. ну пусть 10к страницами?
И второй вопрос - можно ли задавать базовые (и не изменяемые\не пересчитываемые) значения веса некоторым страницам? Если нет - принимай как идею ;)
Алгоритм в той статье чисто теоретический, кстати
Сдаётся мне правильный (текущий) алгоритм и гуглу не до конца известен ;)
все там гугл знает, поверьте)
вот, может для кого пригодится - GOOGLE META TAG AND PAGE RANK EXPLAINED.pdf
Думаю, для большинства - баян)
для теста набросал сайт из 5 страниц http://live.pl.ua
с главной идет ссылки на 4 страницы, на остальных страницах - ссылок больше нет.
скрипт правильно нашел все страницы, расчитал вес - у всех стринац оказался одинаковый вес - 0,2
это правильно? мне казалось, что у главной должен быть меньший вес.
Странно, посмотрю