Willie

Willie
Рейтинг
200
Регистрация
08.10.2008
Koukou Roukou #:
а по факту нервы должны быть стальные, чтоб глупостей не наделать

И это увы не поможет. В любой момент правительство примет "решение" и Вам просто останется хлопать себя ушами по щекам. Мой выбор $ под матрасом.

Продвигаете ли сайты под Гугл Беларусь?
Lor:
... Гугл фактически зафильтровал больше половины Интернета, ...

О, ужас! Еще немного - и Интернет вообще перестанет существовать... вот же Гугол гадина, уже половину одолел. А с первого взгляда и не заметно.

i-arm:
... в коммерческой тематике все сайты УВАЖАЮЩИХ СЕБЯ И СВОИХ КЛИЕНТОВ КОМПАНИЙ покупают ссылки, значит он может всех их забанить))))

Ах, какая трагедия!

Вы, "продвигатели" за счет бабла клиентов, ничего не умеющие и ничего не знающие - вы начали сосать писю, да? А я давно говорил, что так оно и будет в итоге. Получите и распишитесь! Причмокивать не забывайте, представители наебизнеса...

Остальная патетика крайне дешевая. Вы потратили слишком много восклицательных знаков на нее.

DnB12:
Скажите пожалуйста как именно влияет внутренняя перелинковка страниц сайта на рейтинг в гугле по запросам?

Влияет, причем весьма сильно. Только за счет внутренней перелинковки страниц сайта можно вытащить кучу НЧ-запросов в ТОП.

GoodHex:
Сегодня заметил в google веб-мастер такую ошибку.
Повторяющиеся метаописания.Проанализировав все ошибки понял,что метаописания дублируются в архиве.Движок vbulletin.

Что делать?

Как старый Вобловод, скажу вам:

- "повторяющиеся метаописания" легко исправляются добавлением в конец некого числа. Оно может быть случайным, а может быть форматом времени. Требует минимального вмешательства программиста;

- полностью проблема ликвидируется прописыванием тега CANONICAL к каждой странице архива. Делается средней силы вмешательством программиста;

- в общем и целом Вобловский архив ранжируется лучше, чем основной вариант страниц. Потому, что там намного меньше мусора. Поэтому самое радикальное решение - запретить его;

- при всем этом вам придется решать проблему повторяющихся описаний и заголовков (см. п. 1).

Самые большие ошибки, которые вы можете совершить:

- смотреть на трастовые сайты ("у них так сделано - значит, и я повторю"). То, что позволено Юпитеру, не позволено быку;

- слушать советы типа "а я вообще мета-теги не использую" - понятно, что это из разряда "а я спрыгнул с десятого этажа и остался жив, вот только подтвердить этого не могу". Ради интереса: попросите показать "советчика" его сайты без DESCRIPTION, и убедитесь в том, что он попросту пиздобол, причем крайне дешёвый;

- еще одна ошибка начинающих вобловодов - формирование отдельных постов как самостоятельных страниц. Так делать нельзя! Вернее, можно, если ваш сайт пользуется полным и абсолютным доверием Гугла по своей тематике. Если не так - то это преждевременно и вредно.

katenuha:
Но почему гугл считает их недостойными главной выдачи, если почти под каждую страницу изначально был уникальный текст под 1000 знаков?

Вот какого ответа вы ждете? Не видя сайт, невозможно давать какие-либо рекомендации по вашему вопросу.

Platinum2000:
Закупаю для него ссылки в сеопульте: ссылки закупаю только по одному анкору - "бесплатное порно видео" + безанкорные ссылки. По данным лайвинтернета, мой сайт чаще всего находят по таким запросам: "sex porno" и "sex porno video", но не по тому анкору , по которому я свой сайт продвигаю.

Вот только что написал в другой теме про фильтр на отдельный запрос: /ru/forum/comment/12001022

Sower:
На отдельные страницы может не только фильтр накладываться, а и полное исключение их из результатов поиска.

Верно! И более того: фильтр накладывается и на отдельный запрос. К примеру, "розовые слоны" (если наложена пессимизация на такой запрос) можно днем с огнем не найти в выдаче, а вот "животные с хоботом" могут занимать ТОП вполне нормально.

Пингвин примерно так и работает: вышибает из поиска преимущественно то, что усиленно продвигали ссылками. Есть в тексте слово или фраза из зафильтрованных - получи "-1" в репу страницы. Но если таких слов нет - то все нормально.

Когда же число таких пессимизированных страниц становится в процентном отношении велико (а, как правило, так и бывает, ибо сайты раскручивают по "самым-самым" ключевикам, которые встречаются везде в контенте), перестают работать даже НЧ, где про "розовых слонов" нет ни слова.

fagot_seo:
В том то и прикол, что Гугл нашел и просканировал ЗАКРЫТЫЕ в robots.txt страницы, и отправил их в сопли с пометкой "закрыто в роботс"

И правильно сделал, не находите?

Открывать/закрывать надо НЕ в роботсе, а таким образом, чтобы они были вообще недоступны.

Всего: 1891