- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Realtim, "Бегущая строка была активна"? Дело в том, что программа работает с активным интернетом, может проблема с коннектом?
Неа. Под бегущей строкой вы понимаете строку состояния я так понимаю. Не было ничего. Запус и через пару секунд - анализ завершен, хотя никаких данных нету.
С инетом все нормально. Через прокси и т.п. не работаю.
Имеется ввиду редактировать сам файл, либо делать какое то направление для сканирования, например закрыть от сканирования определенные области сайта?
Второе. Дописать закрытие какого-то раздела, перед проверкаой. Собственно как-тут: http://webmaster.yandex.ru/wmconsole/public_robots_txt.xml
Str256 - просто праграмма в процессе определения проиндексированности той или иной страницы банится яндексом по ip и начинает отправлять большинство страниц в непроиндексированные.
А при чём тут проиндексированность? Она просто страницы не находит. А наоборот находит кучу страниц которые не в индексе.
Realtim, Здесь по моему что то с коннектом связанно, может какой то блокиратор стоит или файрволл, может антивирус блокирует. Но скорее всего дело не в программе, так как даже подключения не было.
Str256, Подсказка интересная, надо будет об этом подумать:)
Относительно того что программа ищет то что не в индексе. Индекс Поисковых систем не влияет на способ определения (нахождения) страниц сайта. Она сама по себе находит страницы. Просто при обращении за определением показателя проиндексированности и определения пузомерок она обращается к ПС, вот здесь то может случиться блокировка.
Относительно того что программа ищет то что не в индексе. Индекс Поисковых систем не влияет на способ определения (нахождения) страниц сайта. Она сама по себе находит страницы. Просто при обращении за определением показателя проиндексированности и определения пузомерок она обращается к ПС, вот здесь то может случиться блокировка.
Тогда бы это касалось каждый раз разных страниц, а не одних и тех же. К тому же у меня параметр - "индекс Яндекса" - галочка не стоит. Так, что как может случиться блокировка - не понятно совершенно. И кроме этого, прога не соблюдает запреты роботса. У меня скажем стоит запрет: Disallow: /*/?curPos=0
А страницы содержащие этот параметр были скачены. И ещё - находит 249 страниц - загружает только 30, включая не нужные. А страницы, что не в индексе - при нажатой галочке - определяет как в индексе.
Realtim, Здесь по моему что то с коннектом связанно, может какой то блокиратор стоит или файрволл, может антивирус блокирует. Но скорее всего дело не в программе, так как даже подключения не было.
Возможно... Что посоветуете тогда сделать, чтобы все нормально работало?
Str256, По нынешней задумке программа и не должна соблюдать роботс, это просто информация о том закрыта или нет страница для той или иной ПС в этом файле. Но в следующей версии все таки наверное стоит подумать о том что бы сделать свой, своеобразный роботс для направления потоков сканирования.
- Разница в том что нашлось и то что отсканировалась действительно существует. Исправление этого параметра уже внесено в список исправлений.
Realtim, Наверно все таки стоит проверить нет ли каких либо запретов. Если есть, то временно их приостановить (программа неопасная, уже около 200 человек безприпятственно подключались:)).
Как насчёт нагрузки на сайт? 2-а раза пользовался вашей программой, см. мои посты выше - пришло после этого 2-а письма с хостинга о превышении допустимой процессорной нагрузки. Даты и время в письмах совпадают. До этого никогда таких писем по этому сайту не приходило.
Сейчас посмотрел логи - ваша программа обращалась к страницам, которых нет. Результат 404 ошибка.
Причём обращения по таким адресам, которых и раньше не было, типа /textile/textile/textile/ или /top/about/top/about/ - она вообще откуда адреса такие берёт? Или может сама генерирует возможные? Ссылок в контенте точно таких нет и не было.
Это конечно интересно, можно адрес сайта и адрес хостинга?
Сама программа никаких подстановок не делает, только то что есть, возможно неверно истолковывает некоторые скрипты.
Это конечно интересно, можно адрес сайта и адрес хостинга?
Сама программа никаких подстановок не делает, только то что есть, возможно неверно истолковывает некоторые скрипты.
Смс Netcat лайт. Хостинг наунет. Написали, что ещё нескольких таких обращений и сайт отключат. Так что урл дать могу, но никаких обращений вашей программой к сайту чтобы не было - так, что это вам даст? Структура сайта стандартная.
Я попробовал поговорить по этому поводу с программистом и скорее всего это какой то алгоритм данного CMS, например такое же может произойти и на Drupal е. Все таки интересно было бы адрес сайта (можно в личку) для анализа (напрягать хостера не буду).
Относительно хостинга, здесь уже говорилось об этом, что некоторые не совсем "сильные" машины, могут воспринимать обращение к страницам как dos атаку, из за частоты обращения, в большинстве случает это может быть, если страниц сайта достаточно много.
С "Наунет" ом я пока не сталкивался, но Вы первый кто затронул этот вопрос. Может у кого то еще имеются подобные проблемы с хостером, что бы иметь это ввиду в дальнейшем?