- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день!
Хотел спросить у форумчан об особенностях сбора семантического ядра для сайта.
Моя стратегия такова:
1.Кейколлектором собираю много разных ключей из разных источников по заданной теме.
2.Из ключей пункта 1 отбираю ключи по типу "!пластиковые !сандали", с частотностью до 5-50.
3.Из полученных ключей пункта 2 собираю ядро.
Но тут нет ясности, будет ли по подобранному запросу переход.
Проясните этот момент пожалуйста.
Подскажите, по такой методе кто-то работает? Такая метода эффективна? У кого какие мысли?
Подскажите, буду рад.:)
Подскажите, по такой методе кто-то работает? Такая метода эффективна? У кого какие мысли?
Подскажите, буду рад.
Расскажу как делаю я:
1) Беру wordstat и Yandex Wordstat Assistant, перебираю основные клечевые запросы разделов по очереди, определяю минус слова, выгружаю это все дело в ексель с частотностью.
2) Затем забиваю запросы в директ "Прогноз бюджета", все запросы в кавычках., скачиваю это дело, удаляю все строки, оставляю только запросы и прогноз показов.
3) В екселе (предварительно сделав сводные таблицы), с помощью функции ВПР, объеденяю эти показати в один ексель, в итоге у нас получается запросы и их частотность без кавычек и в кавычках.
4) Делю частотность каждого запроса в кавычках, на запрос без кавычек. Тем самым получаю полноту запроса, перевожу эти значения в проценты, то, что ниже 5% выкидываю сразу.
5) Определяю тип запроса, коммерческий или информационный, можно с помощью сеопульта, соответственно, если проект коммерческий, то откидываю всю информационку, на вермя...возможно они позже понадобятся для статей.
7) Делаю ручную сортировку.
6) Потом иду или в джаст мэджик или открываю Key Assort и делаю кластеризацию собранных слов.
7) Смотрю как распределены запросы по группам, возможно, что то, где то сервис упустил.
Семантика готова)
---------- Добавлено 23.11.2016 в 18:31 ----------
А, да, еще использую иногда словодер, чтобы дополнить какими то словами.