Сегодня я расскажу пожалуй самый главный технический вопрос о том как же всё таки Яндекс распознаёт неуникальный контент.

 

Но вначале вам нужно понять теорию нейронный сетей.

Напомню, что именно на нейронных сетях и построен новый алгоритм Яндекса «Королёв».

Мы не будем лезть в код нейронный сетей, нам это не нужно. Мы должны понять смысл нейронных сетей.

Основной смысл нейронной сети в том, что с помощью нейронной сети находятся и ПРОГНОЗИРУЮТСЯ какие либо значения равные уже имеющимся.

Пример с погодой: Нейронная сеть собирает данные при который в 98% случаях идёт дождь. И если в какой то день эта нейронная сеть видит, что данные в реальном времени совпадают с уже имеющимися, то эта нейронная сеть выдаёт результат, что в этом месте будет дождь.

В общем нейронная сеть помогает очень сильно ПРОГНОЗИРОВАТЬ какие то данные.  Запомните это слово — ПРОГНОЗИРОВАТЬ.

Т.е. идёт элементарное сравнение и на основе этого сравнения, и выдаётся результат.

Всё дело, в том, что результат вот этого ПРОГНОЗИРОВАНИЯ очень точный. Он может приближаться к 99%. И поэтому результат работы этого прогноза берётся за Истину.

И с логической точки зрения это правильно, ибо высокая точность результата.

 

Это была теория про нейронные сети.

Теперь переходим к нашим текстам.

Для многих сеошников есть понятие «уникальности текста».  Если текст уникальный, то поисковая система воспринимает этот текст как абсолютно новый для поисковой системы, так и для Интернета в целом. Для этого делают рерайты статей. И через рерайт уникальность текста достигается 100%.

Да, поисковые системы ищут уникальный текст, это правда.  Вся проблема только в том, что этот уникальный текст рассматривается не с точки зрения уникальности слов или букв, а с точки зрения СМЫСЛА статьи.

А смысл статьи  в 99% рерайта остаётся тем же.  Ну и соответственно ваша статья имеющая 100% уникальности идёт в фильтр поисковых систем.

Кто то спросит, а как поисковая система понимает, что моя отрерайтенная статья такая же по смыслу как и исходная?!

Всё просто. С помощью нейронный сетей. Просто ищутся факторы по которым ваша отрерайтенная статья схожа с данной. И абсолютно неважно уникальный ваш текст или нет.  

Уникальность текста определяется по смыслу, а не по словам. Вот и всё.

 

Нужно поставить себя на место коприайтера. Он же не выдумывает какие то новые тексты, он просто  читает исходный текст и на основе его пишет якобы новую статью.

Ну да, она будет уникальной, но по смыслу это будет старая статья.

Я не хочу вдаваться в подробности как поисковая система определяет такие тексты, я знаю то что это делается очень просто и это РАБОТАЕТ.

 

А что происходит если вы на свой сайт выложили рерайт статьи и поисковая система понимает, что эта статья уже есть в  Интернете и вы просто её украли?!

Траст вашего сайта становится немного ниже.

Это самое главное.  Чем больше у вас на сайте будет размещено вот таких отрерайтенных статей, тем ниже будет у вас опускаться траст. И может так получиться, что ваш траст упадёт до нуля и сайт уйдёт под АГС.

Допустим у вас трастовый сайт. И если вы сделаете рерайт какой то статьи, то скорее всего ваша статья будет выше того сайта у которого вы скопировали статью.

Но нужно понимать, что чем больше вы публикуете у себя на сайте таких статей, то тем ниже траст вашего сайта.  С каждой такой статьёй траст вашего сайта уменьшается.

Именно так поисковая система Яндекс и борется с авторскими правами на статьи.

 

Пример, как с помощью понимания что такое уникальность текста повысить ранжирование вашего сайта:

Можно видеть, что у многих коммерческих сайтов  существует так называемый статейный раздел. В этот раздел пишут статьи.

Так вот на 99,5% эти статьи дубли уже имеющихся. Копирайтеры то пишут эти статьи уже опирайся на уже имеющиеся статьи. Они просто правят уникальность, а смысл статей остаётся прежним.

И чем больше статей, тем ниже у вашего сайта будет траст. Возможно у вашего сайта прекрасные ПФ, но сайт плохо ранжируется. Возможно это именно из-за этого статейного раздела.

Только не нужно говорить и доказывать(особенно самому себе), что мы пишем уникальные статьи.

Просто попробуйте удалить эти статьи и возможно через 2 месяца позиции вашего сайта вырастут.

И когда я говорил раньше, что не нужно делать  на ваших коммерческих сайтах эти статейные разделы, разумеется я не договаривал почему.  Я всегда недоговариваю, чтобы вы могли сами думать.

 

Как быть и какие тексты писать?!

Для коммерческих сайтов я уже писал мануал как писать тексты — http://blogarbik.ru/?p=7238

Для информационных сайтов нужно писать авторские статьи.

 

Вот такая поисковая система Яндекс и распознаёт дубль контента.  Вы должны понимать, что все ваши тексты которые пишут копирайтеры они на 90% являются копиями статей на других сайтах.  И вы должны понимать, что Яндекс видит и понимает это. Он понимает, что вы разместили на своём сайте статью которая является дублем какой либо другой статьи.

 

 

Немного расскажу про копирайтинг. Копирайтинг это тоже самое, что и рерайт. Копирайтеры пишут одни и те же тексты и их главная задача сделать их уникальными.

В целом не имеет смысла заказывать тексты у копирайтеров, ибо они ещё «больны». Да и вы тоже больны, когда даёте им ТЗ на написание текста.

 

Ещё раз повторяю — Дубль контента определяется по СМЫСЛУ, а не по УНИКАЛЬНОСТИ. Помните это и думайте.