И это увы не поможет. В любой момент правительство примет "решение" и Вам просто останется хлопать себя ушами по щекам. Мой выбор $ под матрасом.
О, ужас! Еще немного - и Интернет вообще перестанет существовать... вот же Гугол гадина, уже половину одолел. А с первого взгляда и не заметно.
Ах, какая трагедия!
Вы, "продвигатели" за счет бабла клиентов, ничего не умеющие и ничего не знающие - вы начали сосать писю, да? А я давно говорил, что так оно и будет в итоге. Получите и распишитесь! Причмокивать не забывайте, представители наебизнеса...
Остальная патетика крайне дешевая. Вы потратили слишком много восклицательных знаков на нее.
Влияет, причем весьма сильно. Только за счет внутренней перелинковки страниц сайта можно вытащить кучу НЧ-запросов в ТОП.
Как старый Вобловод, скажу вам:
- "повторяющиеся метаописания" легко исправляются добавлением в конец некого числа. Оно может быть случайным, а может быть форматом времени. Требует минимального вмешательства программиста;
- полностью проблема ликвидируется прописыванием тега CANONICAL к каждой странице архива. Делается средней силы вмешательством программиста;
- в общем и целом Вобловский архив ранжируется лучше, чем основной вариант страниц. Потому, что там намного меньше мусора. Поэтому самое радикальное решение - запретить его;
- при всем этом вам придется решать проблему повторяющихся описаний и заголовков (см. п. 1).
Самые большие ошибки, которые вы можете совершить:
- смотреть на трастовые сайты ("у них так сделано - значит, и я повторю"). То, что позволено Юпитеру, не позволено быку;
- слушать советы типа "а я вообще мета-теги не использую" - понятно, что это из разряда "а я спрыгнул с десятого этажа и остался жив, вот только подтвердить этого не могу". Ради интереса: попросите показать "советчика" его сайты без DESCRIPTION, и убедитесь в том, что он попросту пиздобол, причем крайне дешёвый;
- еще одна ошибка начинающих вобловодов - формирование отдельных постов как самостоятельных страниц. Так делать нельзя! Вернее, можно, если ваш сайт пользуется полным и абсолютным доверием Гугла по своей тематике. Если не так - то это преждевременно и вредно.
Вот какого ответа вы ждете? Не видя сайт, невозможно давать какие-либо рекомендации по вашему вопросу.
Вот только что написал в другой теме про фильтр на отдельный запрос: /ru/forum/comment/12001022
Верно! И более того: фильтр накладывается и на отдельный запрос. К примеру, "розовые слоны" (если наложена пессимизация на такой запрос) можно днем с огнем не найти в выдаче, а вот "животные с хоботом" могут занимать ТОП вполне нормально.
Пингвин примерно так и работает: вышибает из поиска преимущественно то, что усиленно продвигали ссылками. Есть в тексте слово или фраза из зафильтрованных - получи "-1" в репу страницы. Но если таких слов нет - то все нормально.
Когда же число таких пессимизированных страниц становится в процентном отношении велико (а, как правило, так и бывает, ибо сайты раскручивают по "самым-самым" ключевикам, которые встречаются везде в контенте), перестают работать даже НЧ, где про "розовых слонов" нет ни слова.
И правильно сделал, не находите?
Открывать/закрывать надо НЕ в роботсе, а таким образом, чтобы они были вообще недоступны.