- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
А я подожду пока. Будем делать из биржи еще один ТЛ совместными усилиями :)
Итак главные вопросы:
1. Сделать чтобы бот не так сильно нагружал хостинг
2. Сделать чтобы ВС считались корректно наконец-то
3. Сделать чтобы сайты начали нормально индексироваться
4. Решить вопросы с страницами на которых ошибка "Необходима валидация"
5. Дать оптимизаторам самим решать на каких страницах они хотят размещать ссылки, и чтобы они самостоятельно могли анализировать количество контента и прочие параметры, т.к. я уверен на 100%, что у биржи никогда не будет столько мощности, чтобы адекватно считать эти параметры.
Uniplace, как то это все не сходится
или вот:
Уважаемый kvazarEvd!
В данный момент мы разбираемся с Вашей проблемой и обязательно оповестим Вас о результатах ее решения.
---------- Добавлено 04.10.2012 в 15:27 ----------
В общем, я бота забанил, код снял, ссылки удалил.
Когда косяки исправите, и нормальную цену выкупа поставите, возможно, верну.
Кстати да, боты очень сильно нагружают сайт, вплоть до даунов. Сделайте так, чтобы они работали помедленнее.
Для управления скоростью индексации нашего робота можно добавить в robots.txt директиву
Crawl-delay:
Для примера
User-agent: *
Crawl-delay: 4.5 # задает таймаут в 4.5 секунды
Для вновь добавляемых сайтов и сайтов которые были в Uniplace на момент обновления биржи и удовлетворяли новым критериям модерации минимальная цена за ссылку составляет 1 руб. 20 копеек.
Сайты, которые не проходили модерацию на момент введения новых критериев, мы так же перенесли, но минимальная цена за ссылку для них составляет 60 копеек.
А как узнать прошел сайт модерацию или нет?
А как узнать прошел сайт модерацию или нет?
Если речь идет о вновь добавляемых сайтах, то добавление сайта в сервис означает, что он прошел модерацию.
Если речь идет о сайтах перенесенных из старого Uniplace, то сайты с нулевым тицом с высокой долей вероятности модерации не прошли. Для более детального ответа, обратитесь в поддержку, мы предоставим информацию по Вашему аккаунту.
Для управления скоростью индексации нашего робота можно добавить в robots.txt директиву
Да он сутки с сайта не вылезал вчера и сегодня продолжил. У меня подобную нагрузку 3-4 тысячи очень активных посетителей создают.
За 15 руб в сутки (больше 1000 ссылок, кстати) такого счастья не надо.
Даешь обогнать по нае-ву трастлинк в ближайшую пятилетку!
Даешь обогнать по нае-ву трастлинк в ближайшую пятилетку
Миш, трастлинк по сравнению с этим - образец альтруизма, меценатства и благотворительности.
Уберите это жуткое окно со скроллом ссылок "по 10 штук" и сделайте нормальный вывод.
Ну что могу сказать... пока процесс идет, ссылки раскупаются. С трастлинком мне как-то не везло, а тут вроде нормально. Будет время, добавлю еще сайтов :)
Интересно, с нулевиков тоже будет раскупаться?
Обратил внимание, что на нескольких площадках не продаются ссылки. Захожу внутрь - ба, все страницы с желтыми треугольничками "необходима валидация". Что нужно-то?