- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет. Возник вопрос, как проверять тексты, которые присылает копирайтер, чтобы проверить уникальны ли они друг, по отношению, к другу? Т.е. есть 10 не опубликованных текстов, для 10 сайтов, одной и той же темы (все тексты английские). Как убедится, что эти тексты уникальны друг к другу? Заранее спасибо.
http://advego.ru/plagiatus/ - не подходит?
http://advego.ru/plagiatus/ - не подходит?
У него есть такая функция? Просто проверяю уникальность одного текста, по отношению к текстам в интернете, но это не подходит, если проверять не опубликованные тексты.
Как убедится, что эти тексты уникальны друг к другу? Заранее спасибо.
да очень просто - опубликовать и загнать в индекс, после проверить доступными сервисами
да очень просто - опубликовать и загнать в индекс, после проверить доступными сервисами
А если они не уникальны, друг к другу, переписывать их все и потом добавлять снова, это очень усложняет дело. Должна же быть такая прога или сервис(
А если они не уникальны, друг к другу, переписывать их все и потом добавлять снова, это очень усложняет дело. Должна же быть такая прога или сервис(
нету таких программ и сервисов.
ИМХО: если и по этому поводу парится, то лучше закинуть это дело....
нету таких программ и сервисов.
ИМХО: если и по этому поводу парится, то лучше закинуть это дело....
Просто по 5 сайтам уже получил Панду, хотя все заполнялось уникальным контентом (по адвего проверял). Вот я и подумал, может они между собой были сильно похожи, и эти 5 сайтов, получили кучу дублей из-за того, что я не проверял. Тем более, что очень похожим контентом они заполнялись, т.е. сателлиты эти были под один товар, и под одну и ту же узкую тему (все про алое вера). Других причин, найти не могу.
Если это у вам 10 текстов размноженных (переписанных) с одного источника, попробуйте программу - Shingles Expert. Она сравнивает тексты между собой и показывает их уникальность по отношению друг к другу.
Если это у вам 10 текстов размноженных (переписанных) с одного источника, попробуйте программу - Shingles Expert. Она сравнивает тексты между собой и показывает их уникальность по отношению друг к другу.
Спасибо, нет, они все были написаны вручную, но как не пиши руками, всё равно могут повторяться куски текста, если одна тема повторяется 10 раз.
Может дело совсем не в текстах?
Может дело совсем не в текстах?
Может быть, а в чём? Если дублей у страниц нет, текст не сворован, ссылки вообще не закупались. Тут только в тексте может быть проблема, правда, на всех сайтах стоят паблик шаблоны, но я не думаю, что это сильно важно, если норм контентом наполнять. Здесь речь идёт о Google US. EMD тоже не вариант, т.к. от него позиции не улетают за 200-е места (скорее всего, если домены и попали под EMD они бы слегка просели).