- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
господа флудеры, читать умеем?
нужно что-то вроде вот этого http://www.advans.ru/cabinet/
для каждого аккаунта (клиента) будут свои сайты и запросы, весь рунет выкачивать не требуется
господа флудеры, читать умеем?
нужно что-то вроде вот этого http://www.advans.ru/cabinet/
для каждого аккаунта (клиента) будут свои сайты и запросы, весь рунет выкачивать не требуется
умеем:
"Ежедневно наш робот получает информацию в базе данных Яндекса о позициях сайтов наших клиентов по ключевым запросам. Мы получаем эти сведения официально, не используя программное обеспечение или технологии, запрещенные Яндексом."
я так понял нам надо договорится с дядей яшей за вас?) или что???
мой вопрос выше остался без ответа, плиз, расскройте ТЗ.. а то телепат в отпуске :)
Я примерно понимаю, что нужно... надеюсь правильно. Ибо кто-то читать не умеет либо я либо остальные.)
Сам подобный скрипт обдумываю. Даже уже спрашивал как-то про платный xml.яндекс, но сказали, что его нет (а пользоваться проксями и т.п. не хотца, но похоже придётся).
1000 запросов в сутки халявных может не хватить.
Опишу задачу, которую пытаюсь решить и я (в принципе несложная, но времени требует):
1. Нужен скрипт. Желательно с открытым кодом), чтобы можно было дорабатывать, если что. На php
2. Чтобы можно было заводить клиентов со своим логином и паролем.
3. Клиент, мог зайти в аккаунт и вбить домены за позициями которых хотел бы мониторить.
4. Для вбитых доменов можно добавлять список ключевиков, позиции по которым собственно и нужно мониторить.
5. Соответственно по каждому проекту клиент мож сформировать отчет по позициям сайта по дням за выбранный период. По умолчания за 1 месяц.
6. Ну и т.д. - это уже навороты)
И мне не понятно, почему все какуюту ерунду придумывают и не понимают. А мож я чего не допонял).
---
Но поскольку скриптяги такого пока нет у меня. Тоже посоветую ТС что-нибудь, типа www.siteposition.ru
который вроде может мониторить позиции и высылать отчеты на мыло. Я не пользовался им в полной мере, но иногда помогает кое в чём.
---
ВОПРОС НА ЗАСЫПКУ:
www.siteposition.ru и подобные сервисы - тоже через прокси пашут? или с нескольких выделенных IPшников? или им официально яшка увеличил лимит к xml.yandex ?
умеем:
"Ежедневно наш робот получает информацию в базе данных Яндекса о позициях сайтов наших клиентов по ключевым запросам. Мы получаем эти сведения официально, не используя программное обеспечение или технологии, запрещенные Яндексом."
я так понял нам надо договорится с дядей яшей за вас?) или что???
мой вопрос выше остался без ответа, плиз, расскройте ТЗ.. а то телепат в отпуске :)
есть поисковая система
к примеру, яндекс
есть в ее базе много-много сайтов, содержащих разную информацию, иногда даже полезную и уникальную
есть специальная система ранжирования этих сайтов (так как сайтов много-много), то есть вбивая в поисковик запрос (например, "смотреть порно") мы получаем результат - сайты, содержащие информацию этому запросу (по мнению поисковика), идущие в определенном порядке, то есть у каждого сайта - своя позиция, место в выдаче
есть скрипты\программы - парсеры выдачи, они сделаны для того, чтобы облегчить задачу по поиску своих сайтов в огромной базе поисковика, точно также - по определенным запросам. с той лишь разницей, что выводится позиция конкретного сайта, а не все сайты подряд. примеров привели в этом топике немало
так вот
такой парсер нужно повесить на сайт рекламного агентства. правда нужна специальная форма авторизации, куда клиент рекламного агентства будет забивать данные ему рекламным агентством логин и пароль, и, тыкая на кнопку "войти" будет видеть свой сайт и запросы, по которым рекламное агентство его продвигает. также там будет кнопочка "проверить позиции", тыкнув на которую, клиент сможет с удобством просмотреть позиции своего сайта на текущий момент, не проверяя выдачу руками и не морочась со специализированным софтом. договор с яндексом для этого заключать не требуется, так же как и не требуется его заключать при обычном поиске в яндексе
вкратце так. надеюсь что семониторы\ашмановы предлагать больше никто не будет
pivz добавил 06.04.2008 в 17:03
DyaDya, вы читать умеете) примерно такое и нужно, только в мелочах немного по другому
к примеру, не клиент добавляет сам сайты, а раскрутчик, у которого будет акк с расширенными правами - то есть он сможет на клиентские акки добавлять сайты\запросы
все эти скрипты как я понимаю работают через xml или обычный парс, в каких то софтинах есть возможность добавлять прокси
_mihey, http://www.site-auditor.ru/download.html я так и не понял - он 500 запросов в google.com сможет определить - на каких местах мой сайт или нет?!
регистрируетесь на Сервис для вебмастеров, и имеете позиции и удобные отчеты.
ТС, если Вам нужен именно мониторинг позиций сайтов по различным запросам - я могу сделать Вам это Web-сервисом. Он будет периодически (1-2 раза в сутки) проверять позиции всех клиентов по всем запросам и сохранять в базу. "Личный кабинет" и систему авторизации - делайте сами, так как подозреваю, что сайт у Вас на PHP, а я работаю с ASP.NET. Когда клиент авторизовался - обращаетесь к сервису и получаете интересующие данные либо в текстовом либо в XML (можно готовый HTML)...... Такой вариант, если интересно - стучитесь в личку.
спасибо всем, исполнитель найден