- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Я понимаю почему вы не хотите помогать. Я должен сам разобраться.
Нет, просто всем лень. И сайт не известен, то есть разговор беспредметный.
2 последние строки лишние.
Не написано про сайтмап.
Для яндекса и гугла почему-то шибко разные правила.
И зачем тебе Mail.ru?
2 последние строки лишние.
Спасибо.
Не написано про сайтмап.
Его нет и как его сделать я без понятия.
Для яндекса и гугла почему-то шибко разные правила.
Понял. Буду думать.
И зачем тебе Mail.ru?
Он тоже даёт трафик. Мало, но даёт.
Ещё нюансы:
Страница поиска имеет такую ссылку - https://site.ru/search.php я правильно запретил её в роботсе?
Статьи доступны кроме основного адреса ещё по ссылке https://site.ru/viewtopic.php?pid=253#p253 я правильно запретил её в роботсе?
Clean-param пишется 1 раз в конце файла роботс или можно его писать/не писать для каждого User-agent-а?
Clean-param
Только для Яндекса.
Он тоже даёт трафик. Мало, но даёт.
Ну даёт и даёт. Зачем засорять файл роботс дублированием правил, если нет никаких особенностей?
У меня гуманитарное образование.
Так еще наверно и не блондинка, и не с третьим номером...
С такими данными, надо или разобраться самому (но вы гуманитарий). Или таки заплатить. Хотя это тоже пробовали, и теперь у вас статейник сделаный из форума.
Походу, тупик...
Только для Яндекса.
То есть не из за клин парама в роботсе гугл выкинул все статьи мои из поиска?
Ну даёт и даёт. Зачем засорять файл роботс дублированием правил, если нет никаких особенностей?
Майл ру юзает поиск Яндекса.
Ещё вопрос. Для гугла может стоит это открыть? Disallow: /include/
То есть не из за клин парама в роботсе гугл выкинул все статьи мои из поиска?
Гугл вообще не знает, что это такое.
Майл ру юзает поиск Яндекса.
И что? Нафиг он нужен в роботсе? Поиска от Mail.ru вообще нет.
Для гугла может стоит это открыть? Disallow: /include/
С какой целью?
Гугл вообще не знает, что это такое.
Спасибо.
И что? Нафиг он нужен в роботсе? Поиска от Mail.ru вообще нет.
Понял, удаляем.
С какой целью?
Уже разобрался. Должно быть закрыто.
Умные люди пишут, что всё таки последние две строчки нужны и их надо писать так:
Они правы? Причём для всех ПС.