Предположим, у вас есть веб-сайт, или вы ведёте блог, или ваша работа как-то связана с интернетом. Тогда вам просто необходимо хоть немного разбираться в поисковой оптимизации. Эта статья адресована тем, которые только начинают своё знакомство с SEO. В ней описаны 20 основных терминов поисковой оптимизации. Советуем прочесть её и тем, кто уже кое-чему научился, чтобы освежить свои знания.  
 

1. SEM. Эта аббревиатура расшифровывается как SearchEngineMarketing, буквально “маркетинг поисковых систем” или поисковый маркетинг. Означает управление маркетинговыми продуктами и услугами в поисковых системах. SEM делится на две части — SEO и PPC. SEO (поисковая оптимизация) включает в себя различные методы оптимизации веб-сайтов, с помощью которых обеспечивается появление и продвижение веб-страниц в естественном поиске. PPC расшифровывается как “PayPerClick” и переводится как “плата за щелчок, за клик”. Означает распространённую в интернете практику покупки кликов по рекламным объявлениям в поисковой системе. Рекламодатель платит за результаты поиска (иными словами, за то, чтобы его объявление появлялось в поиске на высокой позиции), чтобы получить как можно больше кликов по своему объявлению.  
 

2. Baclink (обратная ссылка), внутренняя ссылка или простая ссылка — это ссылка на ваш сайт, размещённая на чужом сайте. Обратные ссылки широко используются в СЕО-оптимизации. Количество обратных ссылок определяет PageRank (важность, авторитетность, “вес”) вашей страницы в поиске, напрямую влияя на её ранжирование.
 
 

3. PageRank — это поисковый алгоритм, с помощью которого Google определяет относительную важность (авторитетность) веб-страниц в сети. Алгоритм основан на идее о том, что ссылку со страницы А на страницу Б можно рассматривать как выражение доверия А странице Б. Чем больше внутренних ссылок имеет страница, тем больше оснований доверять её содержимому, а значит, выше её возможный авторитет.  
 

4. Linkbait буквально переводится как “наживка для ссылок”. Это часть веб-контента на странице или в блоге, опубликованная с целью получения как можно большего количества обратных ссылок (т.е. чтобы улучшить поисковое ранжирование веб-страницы.Чем больше ссылок, тем лучше ранжирование, помните?). Чаще всего это какой-нибудь небольшой текст, но иногда в качестве “наживки” используют картинку, видеоролик, викторину и т.д. Классический пример linkbait — статьи типа “Топ лучших” или “Десятка лучших”, которые быстро становятся популярными на сайтах социальных закладок.
 
 

5. LinkFarm — это группа сайтов, ссылающихся друг на друга с целью искусственного увеличения поискового ранжирования всех сайтов группы. Практика создания LinkFarm была довольно эффективна на ранних стадиях развития поисковых систем. Сегодня её считают методом “черного СЕО” или спамным методом. За использование LinkFarm вас могут оштрафовать.
 
 

6. AnchorText(видимая текстовая часть ссылки) — кликабельный текст обратной ссылки на странице. В кликабельном тексте желательно использовать ключевые слова. Это помогает поисковой системе “связать” ключевые слова с контентом сайта. Например, если вы ведёте блог о похудании, старайтесь использовать в тексте обратных ссылок на ваш сайт ключевое слово “похудание”. Это улучшит поисковое ранжирование вашего блога.
 
 

7. NoFollow — атрибут ссылки, размещённой на сайте, который запрещает поисковой системе переходить по этой ссылке. С помощью этого атрибута владелец сайта как бы отрицает связь своего сайта с сайтом, на который ведёт ссылка. Например, если подозрительная ссылка была размещена пользователем (в комментарии в блоге) или оплачена рекламодателем или спонсором. Ссылки, закрытые атрибутом nofollow, не учитываются поисковой машиной в ранжировании.
 
 

8. LinkSculpting — дословно “моделирование с помощью ссылок, ссылочное моделирование”. По сути, с помощью атрибута nofollow веб-мастера могут изменять величину (значение) PageRank, чтобы увеличить поисковое ранжирование требуемых страниц. Однако эта практика больше неактуальна, с тех пор как Google изменил алгоритм обработки атрибута nofollow.
 
 

9. TitleTag(тэг заголовка страницы) — один из важнейших факторов в алгоритме поиска Google. В идеале тэг заголовка страницы должен быть уникальным и содержать основные ключевые слова страницы. На веб-странице тэга, собственно нет, он показывается в левом верхнем углу окна браузера.
 
 

10. MetaTags(мета — тэги) — как и тэг заголовка, мета — теги используются для того, чтобы сообщить поисковой системе как можно больше информации о содержимом веб-страницы. Мета-тэги находятся внутри HTML-кода, в части Head, и не видны обычным пользователям.
 
 

11. Поисковый алгоритм используется Google (и другими поисковыми системами) для поиска наиболее релевантных пользовательскому запросу веб-страниц. Как утверждает Google, алгоритм учитывает более 200 факторов, включая значение PageRank, тэги заголовка, мета-тэги, контент страницы, возраст домена и т.д.
 
 

12. SERP (SearchEngineResultsPage) — страница результатов поисковой выдачи. Это страница, которую показывает вам поисковая система после того, как вы ввели определённый поисковый запрос. Количество поискового трафика на вашем сайте зависит от ранжирования вашего сайта на странице результатов поисковой выдачи.
 
 

13. Sandbox (“песочница”) — “молодые”, недавно обнаруженные сайты Google помещает в отдельный индекс, так называемую песочницу. Веб-сайты, находящиеся в песочнице, не появляются на странице поисковой выдачи для обычных запросов. Это делается для анализа и проверки сайта на уникальность, качество (одним словом, соответствие сайта требованиям Google). По окончании модерацииGoogle помещает сайт в основную выдачу.
 
 

14. KeywordDensity (плотность или частота ключевых слов на странице). Чтобы вычислить плотность ключевых слов на странице, разделите количество ключевых слов на общее количество слов на странице. Раньше плотность ключевых слов имела большое значение для СЕО-оптимизации, так как поисковики учитывали её при ранжировании. Теперь это уже не так.
 
 

15. KeywordStuffing (насыщение страницы ключевыми словами). Первые поисковые машины, как уже говорилось выше, обращали особое внимание на плотность ключевых слов. Поэтому сеошники стали “обманывать” поисковых роботов, искусственно повышая плотность ключевых слов на странице. Подобная мошенническая, в сущности, практика называется “насыщение страницы ключевыми словами”. В наши дни её применение чревато штрафами.
 
 

16. Cloaking(дословно “сокрытие”) — приём СЕО-оптимизации. Заключается в том, что поисковому роботу и обычному пользователю демонстрируется разное содержание одной и той же веб-страницы. Применяется для того, чтобы улучшить ранжирование страницы с помощью избытка ключевых слов, а затем использовать растущий входящий трафик для продвижения несвязанных со страницей продуктов и услуг. В наши дня подобная практика считается “чёрным СЕО”. В большинстве поисковых систем за клоакинг предусмотрен штраф, а иногда и бан.
 
 

17. WebCrawler (краулер, паук, поисковый робот) — компьютерная программа, которая просматривает интернет от имени поисковой системы, ища новые ссылки или сайты. Это первый шаг процесса индексации.
 
 

18. DuplicateContent (двойной или дублированный контент) — блоки контента в пределах одного домена или на разных доменах, содержание которых приблизительно или целиком совпадает друг с другом. За дублирование контента владельцам сайтов грозит штраф.
 
 

19. Canonocal URL (канонический урл). Канонизация — это процесс преобразования данных, которые могут быть представлены несколькими возможными способами, в стандартное, каноническое представление. Таким образом, канонический урл — это стандартный урл, с помощью которого вы получаете доступ к определённой веб-странице. Например, каноническая версия вашего домена вместо http://domain.com могла бы выглядеть так http://www.domain.com.
 
 
20. Robots.txt — это текстовый файл, который находится в корневой директории сайта. Используется для того, чтобы сообщить поисковым роботам о структуре веб-сайта. С помощью Robots.txt можно блокировать определённых поисковых роботов и ограничить доступ к отдельным папкам в директории сайта.