- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Помогите пожалуйста разобраться с такой проблемой...
Есть сайт, старый, трастовый, ссылки с него не продаем. И вот у него периодически падают позиции по категориям. Платоны отвечают, что это из-за присутствующих дублей страниц.
Я в роботс закрыл все aux, all и т.д.
Но есть еще страницы категорий такого вида:
http://www.site.ru/index.php?categoryID=85 и http://www.site.ru/?categoryID=85
Причем оставить надо тот адрес, который с index.php?, так как в основном такие страницы в поиске и ссылки на них закупались.
Я так понимаю этот вопрос решается 301-м редиректом... Вопрос: как его правильно написать?
попробуйте так
получаем редирект дублей одной и той же страницы на основной ее адрес..
попробуйте так
получаем редирект дублей одной и той же страницы на основной ее адрес..
Соответственно я все это дело прям блоком переношу в htaccess? а сами дубли в роботсе не надо закрыть?
Соответственно я все это дело прям блоком переношу в htaccess? а сами дубли в роботсе не надо закрыть?
переносите..(тока свой сайт пропишите))
в роботсе закрывать смысла нет -> подождите,.. обновите sitemap..
переносите..(тока свой сайт пропишите))
в роботсе закрывать смысла нет -> подождите,.. обновите sitemap..
спасибо большое!
разрешите тож обратиться, по той же проблеме, чтоб лишние темы не плодить? :)
ситуация на самом деле дурацкая.
Есть движок, купленный, но уже не поддерживается.
в нем крайне дурацкая реализация чпу.
ссылки выглядят подобным образом:
http://www.domain.ru/news/810/заголовок-статьи/
всё вроде бы и неплохо, но проблема в том, что часть "заголовок-статьи" не важна. Важен айдишник новости...
т.е. если набрать http://www.domain.ru/news/810/чтоугодно/, то откроется та же новость, что и http://www.domain.ru/news/810/заголовок-статьи/
Недавно начали появляться дубли, что неприятно. А в файл, отвечающий за чпу залезть не могу - зашифрован ионкубом.
Собственно вопрос - как бы поизящнее решить эту проблему редиректом? :)
пока в голове вертится одна только идея - сделать так, чтобы с любого названия редиректило например на что-то типа /news-article/
т.е. ссылки будут выглядеть http://www.domain.ru/news/810/news-article/ или http://www.domain.ru/news/540/news-article/ и т.д.
Вопрос - как это реализовать? есть ли варианты по приятнее? и самое главное.. как к этому отнесётся яша.. ведь все ссылки в меню и по страницам будут генериться как и раньше, с заголовком статьи... а потом редиректиться... мне так кааца, что это не очень хорошо.
нужна помощь гуру :)
ссылки выглядят подобным образом:
http://www.domain.ru/news/810/заголовок-статьи/
имхо есстестно))
или я что-то не поняла?..((
Оймамочки... :) а можно расшифровать, что эта запись делает? а то я не пойму - то ли я вас не понял, то ли Вы меня..
Или можно я Вам в личку отпишусь спримерами? 🙄