300+ факторов ранжирования в Google

Анатолий Владимирович Косарев

Книга посвящена факторам ранжирования сайтов в Google, которые используются в их искусственном, саморазвивающемся интеллекте.

Оглавление

ТЕКСТЫ

42 фактор. Уникальность текстов

Если статьи для сайта берутся с другого сайта, который Google уже проиндексировал, то статья не учитывается. Иногда возникает ситуация, когда размещается статья на непопулярном сайте, её сдирают, и размещают на популярном сайте, и Google, первой проиндексировал копию с популярного сайта воспринимает её как оригинал. И в этой ситуации никто никому ничего не докажет.

Понимая это, поисковики предложили каждый свой вариант закрепления авторских прав за автором статьи. И в Google и в Yandex предложили свои варианты закрепления авторских прав.

Yandex создал специальную форму, в которую заносится статья, и сразу после регистрации можно размещать статью на сайте. Более подробно об этом читайте в справке Yandex.

Google на момент написания этих строк продолжает продвигать свои круги для бизнеса, поэтому и внёс закрепление авторских прав через свои круги в Google+ для бизнеса.

Это достаточно трудоёмкий процесс, его описывать не буду, поэтому как Google, возможно в скором времени упростит этот процесс.

Если в Google, в ответах на запросы пользователей, Ваша статья с закреплёнными авторскими правами появляется в выдаче, то может появиться и Ваша фотография, имя и фамилия, как автора по утверждению Google. Но в предыдущем предложении ключевое слово «может».

Последние и подробные инструкции по закреплению авторских прав в конкретной поисковой системе найдёте в интернете, потому что всё меняется быстро.

Теперь о рерайтинге. Обычно берут с других сайтов одну или несколько статей, и делают перестановку и/или объединение абзацев, перестановку слов, замену слов синонимами. Все эти изменения Google замечает, и такой текст не считается оригинальным, а поэтому не добавляет вес страницы с высоким процентом заимствования. Различные источники указывают различный процент, начиная с которого Google не индексирует страницы, но думаю, что тот, кто желает быть на вершине рейтинга не будут пачкаться такими статьями.

Чем больше процент совпадения с используемыми статьями, тем больше вычитается из рейтинга у страницы.

Хороший рерайтинг это когда набирается несколько статей, и копирайтет пересказывает всё своими словами.

Трудно сказать, как в Google работает алгоритм проверки уникальности, но уверен, что на портале advego работает подобный алгоритм. На этом сайте любой может проверить текст на уникальность.

По большому счету авторская статья будет только та, в которой впервые излагаются факты, и делаются свои умозаключения. Именно таким статьям Google присваивает наивысший рейтинг.

За оригинальностью текста следит фильтр Duplicate Content.

Подобные фильтры в Google защищают топ поисковой выдачи от не уникального, а попросту ворованного или копированного контента. Duplicate Content допускает к ранжированию тексты с уникальностью более 80%. Все что ниже — не берется во внимание.

Об этом фильтре подробнее смотрите в «36 фильтров Google»

43 фактор. Длинна текста

Одним из факторов качества оригинального текста для Google является длинна текста. По проведённым исследованиям Moz было установлено, что длинные тексты позиционируются выше коротких.

Если считать, что в русском языке средняя длинна слова 6—7 букв, то текст должен быть в пределах 15 тысяч печатных знаков. В любом случае лучше писать статьи более 10 тыс. печатных знаков.

Но это не значит, что, написав статью в 2,5 тысячи слов, статья гарантировано попадёт на первое место. Вероятно, Google ведёт подсчёт длинны текста без воды, и стоп-слов.

Какие же слова Google занёс в черный список — их коммерческая тайна, поэтому, чтобы проводились исследований в этом направлении, мне не известно.

В любом случае длинный текст — это фактор, который позволяет утверждать, что статья наиболее полно раскрывает тему, но это не говорит о том, что и ключевые и LSI слова расставлены грамотно и в нужном количестве.

Как вычислить оптимальную длину текста?

Длинна текста может существенно отличаться на разных тематиках сайтов. Подсказать же минимальную длину статьи помогут конкуренты. Для этого заходим в Google, с поле поиска вводим ключевую фразу, по которой желаем написать статью, и открываем первый десяток сайтов, исключая контекстную рекламу.

Копируем статью, заносим её на полюбившийся сервер проверки уникальности, и смотрим количество слов первого десятка сайтов по выбранной ключевой фразе. Складываем все десять результатов, и делим на 10.

Ваша статья должна быть на 10—25% больше полученного результата.

Повторюсь, что это не гарантия стать первым в выдаче. Хоть длина текста очень большая капля, добавляющая к весу веб-страницы, но не единственная. Следует учитывать всё выше и ниже написанное.

Вы обязательно заметите, что на первых местах находятся сайты с не слишком длинными статьями, но это значит, что у них лучшие другие показатели.

44 фактор. Структура документа

Хорошо структурированный текст — это хороший показатель качества контента, а значит и добавка весу страницы.

В HTML более чем достаточно средств структурировать и форматировать текст.

Подзаголовки H2, H3, H4, H5, H6

Правильное использование элементов заголовка H2, H3, H4, H5, H6

«Шесть элементов заголовка от H1 до H6 обозначают заголовки разделов. Хотя порядок и появление заголовков не ограничены HTML DTD, документы не должны пропускать уровни (например, от H1 до H3), так как преобразование таких документов в другие представления часто проблематично.» W3C.

Подзаголовки не так важны при ранжировании сайтов, но существенно добавляют вес страницы, если выполняют два требование.

1. Показывают наглядно структуру документа.

2. Используют LSI терминологию.

По рекомендациям Google каждая статья должна иметь четко читаемую структуру текста.

Например,

<Н1> Лучшие Марки Автомобилей из Европы (и их технические характеристики) </Н1>

<Н2> Немецкие автомобили </Н2>

<Н3> BMW </Н3>

<p> Текст об этой марки машин…. </p>

<p>…. </p>

<Н3> Volkswagen </Н3>

<p> Текст об этой марки машин…. </p>

<p>…. </p>

<Н3> Mercedes-Benz </Н3>

<p> Текст об этой марки машин…. </p>

<p>…. </p>

<Н3> Audi </Н3>

<p> Текст об этой марки машин…. </p>

<p>…. </p>

<Н3> Porsche </Н3>

<p> Текст об этой марки машин…. </p>

<p>…. </p>

<Н3>… </Н3>

<p> Текст об этой марки машин…. </p>

<p>…. </p>

<Н2> Английские автомобили </Н2>

<Н3> Land Rover </Н3>

<p> Текст об этой марки машин…. </p>

<p>…. </p>

<Н3> Aston Martin </Н3>

<p> Текст об этой марки машин…. </p>

<p>…. </p>

<Н3> Rolls-Royce, </Н3>

<p> Текст об этой марки машин…. </p>

<p>…. </p>

<Н3>… </Н3>

<p> Текст об этой марки машин…. </p>

<p>…. </p>

<Н2>… </Н2>

<Н3>… </Н3>

<p> Текст об этой марки машин…. </p>

<p>…. </p>

<Н3>… </Н3>

<p> Текст об этой марки машин…. </p>

<p>…. </p>

Такая структура построения текста приветствуется Google в любом документе, и это повышает ранг веб страницы, будь то консультации, реклама товаров, услуги, или рассказ о каких-то событиях.

Чтобы было более понятно кратко напомню построение, которое предложил ещё Аристотель, и пока более мудрой структуры никому не удалось придумать.

Если человек желает о чем-то поведать, то он высказывает тезис, или предмет доказательства, или предмет его рассказа. Если нет предмета доказательства, то все согласны с этим тезисом, и это уже не тезис, а всем известный факт. Если факт всем известен, то все всё знают, и нечего доказывать, и говорить тут не о чем, а тем более писать.

Например, если в нашем выше рассмотренном примере было написано «Автомобили из Европы», то не понятно, что этим хотел сказать автор. Но написав «Лучшие Марки Автомобилей из Европы (и их технические характеристики)», человек понимает, что речь пойдёт о перечислении марок автомобилей, производимых в Европе, и будут даны их характеристики. Хороший тезис, с этим уже можно и поспорить, или узнать что-то новое.

Тезис должен быть подкреплён аргументами. В приведённом примере аргументами являются заголовки Н2 и Н3. А аргументы должны быть раскрыты последующим текстом для каждой марки.

Общепризнанное построение структуры выполняет ещё одну задачу — употребление LSI терминов Каждый подзаголовок (тексты в тегах Н2 — Н3) — это и есть LSI термин. По количеству этих терминов (и качеству) Google определяет на сколько полно раскрыт текст.

Чем больше в тексте синонимов у основной ключевой фразе, чем больше сопутствующих слов этой фразе, тем больше вес веб страницы.

Списки

Для улучшения структуризации и визуальной навигации по тексту используют нумерованные и маркированные списки.

Нумерованный список применяется, когда передаётся последовательность действий, например,

1. Набрал воды в чайник.

2. Поставил на подставку.

3. Включил чайник;

4. Ждёшь пока закипит вода…

Нумерованный список допустимо применять, когда нужно показать точное или последовательное количество фактов.

Маркированной список применяется, когда не важна последовательность, при более повествовательном характере изложения.

Для Google это дополнительный фактор того, что текст хорошо структурирован. И пользователю по таким метка проще ориентироваться в тексте.

45 фактор. Начертания шрифтов

Google обрабатывает теги <b> <strong> и теги <em> и <i> одинаково с точки зрения ранжирования и индексирования страниц.

Мэтт Каттс сказал, что нет никакой разницы в том, как Google относится к тегу <strong> и <b>, когда дело доходит до ранжирования, подсчёта очков или других факторов поиска.

Нет официального подтверждения того, что Google использует эти теги в качестве факторов ранжирования. Нет и опровержения.

Поэтому было много спекуляций на эту тему: некоторые оптимизаторы советуют использовать теги выделения, другие говорят, что это бессмысленно.

Однако в Стандартах W3C определяющих открытую веб-платформу сказано, что тег <strong> и <em> были задуманы для выделения ключевых фраз, как помощь поисковикам. А теги <b> и <i> оставлены как дизайнерские выделения текста.

Визуально же текст в теге <strong> ничем не отличается от текста в теге <b>. Аналогично и <em> и <i> визуально ничем не отличается.

Мне не трудно при написании текстов применять выделения по правилам W3C, а как вам, решайте сами.

Даже если на данный момент Google не учитывает выделение жирным или курсивом, это не значит, что и в дальнейшем будет так.

С одной стороны, теги <strong> и <em> могут помогать поисковикам определяться с ключевыми и LSI словами на веб-страницы, а с другой стороны использование этих тегов делает текст более лёгким для восприятия, и могут улучшить вес веб-страницы за счёт качества контента.

Многие веб-мастера тегами <strong> и <em> выполняют дизайнерские выделения вместо использования тегов <b> и <i>.

Если поисковики следуют Стандартам W3C, то такое выделение вводит в заблуждение системы определения ключевых фраз, а значит такое выделение снижает рейтинг страницы.

В своём последнем исследовании, посвящённом факторам рейтинга поисковой системы, MOZ.com попросил 120 ведущих мировых маркетологов по поиску оценить, насколько важно, по их мнению, использование жирных и курсивных ключевых слов. Их ответ был 2,8 из 10 (1 значение «Нет значения» для 10 означает «Очень важно»).

По какой-то причине, однако, SEOmoz «On-Page Grader обращает внимание на теги <B> и <STRONG> при определении того, насколько оптимизирована веб-страница, тоже неизвестно.

В любом случае, уверен, что если сейчас Google ещё не учитывает <B> и <STRONG>, и другие подобные теги, то вскоре — этот фактор будет учтен, потому как по написанию кодинга виден профессионализм, а значит и авторитет сайта.

46 фактор. Правильный кодинг

В любом случае существует спецификация W3C, которую каждый разработчик должен соблюдать.

Всякие же от неё отступления считаются ошибками, а большое количество ошибок или плохой кодинг может быть знаком плохого качества контента, что фиксирует Google.

Подумайте о своих пользователях и о том, как они изучают контент. Обычно посетители «сканируют» ваш контент. Таким образом, желательно использовать теги жирный, курсивный и подчёркивание для стилизации контента, чтобы сделать текст более легко воспринимаемым.

Люди склонны сканировать веб-страницы, а не читать каждое слово. Жирные ключевые слова и ключевые фразы могут не влиять на рейтинг страницы, но это определенно поможет читаемости и потреблению контента более глубоко понять суть написанного.

Путём моделирования наиболее релевантных фраз и ключевых слов с жирным и курсивом теги, вы помогаете пользователю быстрее понимать контент, что улучшает визуальное восприятие, а как показывает практика даже уменьшит показатель отказов от просмотра страницы.

А это значит, что хорошо структурированный, и визуально оформленный текст, увеличивает время просмотра, увеличивает рейтинг страницы по пользовательскому фактору.

47 фактор. Цитата

Одним из трёх важнейших факторов, влияющих на ранжирование сайта в ответах на запросы пользователей в Google, являются ссылки. Поисковик учитывает вес не только входящих, но и исходящих ссылок.

Google считает, что если в контенте есть цитаты со ссылками на авторитетные источники, из которых взяты фрагменты текста, то материал серьёзно придуман, хорошо подготовлен и является авторитетным.

Тег <q> в HTML указывает, что текст внутри этого тега является короткой цитатой. Желательно указать источник цитаты, для этого используется атрибут cite.

<q cite="http://example.com/citata/"> Здесь размещается короткий текст, процитированный с другого сайта </q>

Тег <blockquote> предназначен для выделения длинных цитат внутри документа. Текст, обозначенный этим тегом, традиционно отображается как выровненный блок с отступами слева и справа (примерно по 40 пикселов), а также с отбивкой сверху и снизу.

Формат записи, который добавляет вес веб-страницы.

<blockquote cite="http://example.com/citata/">.

Здесь размещается длинный текст, процитированный с другого сайта </blockquote>.

Кроме этого, цитата характеризует веб страницу как содержащую качественный контент, конечно, если ссылка на авторитетный сайт в глазах Google. Соответственно добавляется и авторитет сайту.

48 фактор. Таблицы

Для Google таблицы — это первичный сигнал, что текст хорошо структурирован, и не более.

Пока Google видит, что от сайта посетители получают пользу, у него нет никаких претензий к структуризации страницы.

Когда пользователи находят сайт непривлекательным и бесполезным, они уходят.

Google фиксирует (это показатель отказов), когда пользователи возвращаются на страницу результатов поиска после посещения сайта и выбирает для просмотра другой сайт.

Если поисковик видит, что пользователь получил ответ на свой вопрос на сайте, где нет таблиц, то на первом сайте пусть будут хоть золотые таблицы, он никогда не обойдёт тот сайт, который даёт исчерпывающий ответ.

Так рейтинг сайта падает и таблицы перестают быть сигналом хорошей структуры веб-сайта.

Наличие таблицы на сайте слабый сигнал, который говорит о возможно хорошей структуре сайта.

Если же таблица на сайте широкая по горизонтали, и при просмотре страницы с такой таблицей требуется горизонтальная полоса прокрутки, то при поиске в Google на мобильном устройстве такие страницы выпадают из поиска, хотя хорошо позиционируются для стационарных компьютеров.

Удобный просмотр веб-страницы на мобильном устройстве один из важных факторов при ранжировании сайтов.

Также Google не любит длинные по вертикали таблицы, которые имеют более 6 строк, и выходят за пределы экрана мобильных устройств.

Поэтому, если не желаете терять клиентов с мобильными устройствами, то не используйте большие таблицы на страницах сайта. Но таблицы полностью обозримые на мобильном экране, увеличивают авторитет веб-страницы.

49 фактор. Тег заголовка текста Н1

Заголовки текста — это первое (возможно после картинки), что видит посетитель, открывая страницу сайта. Именно по заголовку пользователь определяет получит ли он ответ на тат запрос, с которым он обратился к поисковику, и стоит ли утруждать себя просмотром этой страницы.

Пример кода заголовка текста:

<H1> Главный заголовок текста </H1>

Google как прежде, так и в 2018 году при подсчёте рейтинга страницы сайта уделяет большое внимание заголовку, написанному в теге Н1.

«Тег заголовка H1 второй по значимости после тега описания страницы.»

Мэтт Каттс, Google.

Это и понятно. Человек желает сразу видеть, что открытая им страница отвечает на заданный им вопрос, т.е. в заголовке Н1 видеть фразу, заданную им в поиске.

Тег заголовка текста Н1.

По данным Moz: «80% результатов поиска в первой странице в Google используют H1».

Как же правильно составлять идеальный заголовок H1?

1. Хотя постоянно идёт спор между оптимизаторами сколько заголовков Н1 может быть в тексте (ведь допускается сколько угодно), но по тем же данным Moz наивысшие места в ответах на запросы пользователей занимают страницы, у которых один заголовок Н1. Если поисковики на странице находят несколько H1, то логический приоритет семантического тега H1 размывается, поисковик не понимает какой ключевой фразе отдавать приоритет, и каждой ключевой фразе отдаётся половина, или треть всего веса, в зависимости от того сколько заголовков было написано.

2. Тег заголовка текста H1 должен описывать тему страницы.

a. Тег H1 должен быть созвучен с заголовком страницы, и желательно не быть его копией. Наличие ключевой фразы в начале заголовка, и далее использование LSI терминов, раскрывающие смысл статьи. Если не используется ключевое слово, то как Google узнает, о чем идёт речь, и как правильно проиндексирует веб страницу?

b. Тег H1 должен дать представление о том, что пользователю предлагается прочитать. Написанию «вкусных» заголовков посвящено много статей в интернете, и это отдельная тема. Однако, «вкусный» заголовок для пользователей и поисковиков иногда отличаются, потому как пользователя завлекают интригой, а для высокого ранжирования требуется чёткое изложение фактов.

3. Считается, что длинна заголовка от 20 до 70 символов наиболее благоприятная для восприятия. Установлено, что среднестатистический человек легко воспринимает своей «оперативной» памятью не более 5—7 слов, максимум 10. Когда человек дочитает заголовок до десятого слова, он забывает первые слова. Именно поэтому многие и не читают длинные заголовки, а сканируют только первые два слова.

Но не стоит на этом зацикливаться, это не так важно, как прежде. Однако при более коротком заголовке теряется ценное пространство, заполнив которое можно получить дополнительный вес. Длинный же заголовок хуже воспринимается пользователем, и для поисковиков размывается его ценность. Поэтому при написании заголовков следует учитывать эту дилемму.

4. Заголовок страницы должен быть самым важным визуальным элементом на странице. Он должен быть крупным по размеру, и мощным по смыслу. Заголовок — это семантический тег, а не дизайнерский изыск, поэтому обращайте внимание, чтобы он был легко читаемым.

5. Используя алгоритм RankBrain, Google научился понимать, что хочет получить пользователь. Если понимание вопроса, и понимание автора текста совпадают, что он хочет донести до пользователя, совпадут, то страница появится в результатах ответов на запрос пользователя. Пользователь в результатах поиска видит страницы, которые отвечают на его вопрос, и переходит по указанным ссылкам. Когда пишется статья нужно спросить у себя: «чего хочет пользователь, когда открывают мою статью? Каковы его намерения?».

Текст в теге Н1 должен удовлетворять этому намерению. Задача заголовка текста — начать удовлетворять намерения пользователя. Когда человек в поисковой системе набирает некоторый набор слов — он формулирует своё намерение.

50 фактор. Теги заголовка текста Н2-Н6

Теги заголовков Н2-Н6 менее значимые, их наличие указывает на то, что текст возможно хорошо структурирован. Содержащиеся в них ключевые фразы — сигнал, что именно под эту фразу оптимизирована страница. Но с этими тегами, как и с таблицами — дополнительный нюанс привлечения внимания, а для поисковиков — дополнительное время, проведённое на сайте.

Дополнительное внимание следует уделить тегу Н2. Его применяют в качестве заголовков в виде вопроса при микро-разметки, чтобы попасть на нулевую выдачу. Обычно в тег Н2 помечают вопросы голосового поиска. О мультиразметки и голосовом поиске читайте в соответствующих факторах.

51 фактор. TF-IDF — частота слов в тексте

TF-IDF — это как часто каждое слово появляется в документе. Google считает, чем чаще анализируемое слово появляется в тексте, тем выше вероятность того, что эта страница об этом.

Но Google использует более сложную версию TF-IDF.

TF-IDF (сокращение от «термин частота — обратная частота документа») используется для измерения важности данного ключевого слова на странице. В отличие от плотности ключевых слов, он не просто показывает, сколько раз термин используется на странице; он также анализирует большой набор страниц и пытается определить, насколько важно то или иное ключевое слово.

Скажем, в ремонте автомобилей термин «ремонт шин», вероятно, важнее, чем «ремонт двигателя с турбонаддувом» — просто потому, что у каждого автомобиля есть шины, и только у небольшого количества автомобилей есть турбодвигатели. Из-за этого термин «ремонт шин» будет использоваться в большем наборе страниц, которые говорят о ремонте автомобилей.

Исследуя статистику ключевых слов большого числа ваших конкурентов, формула TF-IDF покажет вам:

1) Какие ключевые слова являются наиболее важными и актуальными для вашей темы;

2) Какие из них используются на вашей странице должным образом (насколько поисковые системы ожидают их появления, поскольку известно, что Google использует TF-IDF при индексации);

3) Какие термины на вашей странице используются слишком много или слишком мало.

Учитывая, что Google не берет во внимание те ключи, которые указаны на веб странице, может оказаться, что в тексте он возьмёт другие ключевые фразы, и будет ранжировать по ним.

Например, создана страница, и как бы оптимизирована под фразу «ремонт компьютеров». Внесла «ремонт компьютеров» с плотностью 5%, но в тексте повторила фразу «наша компания» гораздо больше раз. Такой вариант Google посчитает текст переспамленным по фразе «наша компания». И это грозит тем, что веб страница вылетает из ТОПа.

Другая сторона вопроса — это запросы, с которыми Google сталкивается впервые, и на них нет уже заготовленных ответов, а таких примерно 25%. Подбирать же ответ по наибольшему наличию введённых пользователем слов — заведомо выдавать мусор. Не известно как оптимизирована веб-страница, ведь Google не анализировал её в этом разрезе. Поэтому поисковик начал работать с введёнными пользователем словами, пытаясь понять суть вопроса, на который нужно дать ответ.

Термин «ключевые слова» уже утратил своё смысловое значение с вводом алгоритма RankBrain как составная часть фильтра Колибри (Hummingbird) в 2015 году. Google, по введённым словам, пытается понять суть вопроса, чтобы подобрать наиболее подходящий ответ.

Вот как Грег Коррадо описал RankBrain в то время:

«RankBrain использует искусственный интеллект для встраивания огромного количества письменного языка в математические объекты — так называемые векторы — которые компьютер может понять. Если RankBrain видит слово или фразу, с которыми он не знаком, машина может догадаться, какие слова или Фразы могут иметь аналогичное значение и соответствующим образом фильтровать результат, что делает его более эффективным при обработке поисковых запросов, которых раньше не было».

RankBrain использует так называемые «сущности», которые представляют собой конкретные объекты, о которых Google знает некоторые факты, такие как люди, места и вещи. С помощью математического алгоритма он затем делит объекты на более конкретные векторы слов, которые приводят к определенной поисковой выдачи. Естественно, сходные векторы слов приводят к сходной поисковой выдачи.

Самое лучшее — это то, что Google уже собрал много информации о них и может сразу же найти самые точные результаты поиска по вашему запросу. Однако, когда RankBrain встречает неизвестный запрос, он ищет вектор, который наиболее похож на исходный запрос, и возвращает результаты именно для него.

Теперь, когда RankBrain направлен на подключение поисковиков к наиболее релевантным возможным результатам, поисковая цель стала приоритетом. Вот почему RankBrain отдает предпочтение только тем страницам, которые действительно соответствуют его миропониманию, требованиям — отвечают на вопросы поисковиков, и предоставляют исчерпывающую информацию по теме, указанной в запросе.

Таким образом, сегодняшняя эффективная оптимизация контента невозможна без понимания смысла поискового запроса и проведения исследования ключевых фраз для конкретных целей.

Ещё одна вещь, которая изменила грамотный подход к SEO, — это смещение акцента на оптимизацию контента с ключевых слов на темы запросов пользователями. Я думаю, что для большинства SEO-специалистов неудивительно, что концепция «одно ключевое слово — одна страница» действительно мертва. Это означает, что в эпоху RankBrain всё, к чему вы должны стремиться, — это всесторонность — вы не сможете получить высокий рейтинг, создав многочисленные страницы, которые охватывают различные варианты ключевых слов.

Google теперь даёт больший вес тем страницам, которые способны ответить на большее количество вопросов.

Что мы знаем наверняка о алгоритмах Google, так это то, что они никогда не останутся неизменными надолго. И шансы чрезвычайно высоки, что Google будет (если не уже) настраивать и улучшать RankBrain.

Более того, RankBrain постоянно учится и меняется, поэтому единственное, что нужно делать, это нацелить контент на людей, сделать его актуальным для поисковых целей, а также сделать его диалоговым и современным.

Более подробно о RankBrain читайте в «36 фильтров Google».

52 фактор. Естественный язык

По сути, единственная рекомендация по оптимизации RankBrain, которую мы получили до сих пор, пришла от Гэри Иллиеса, аналитика веб-мастеров Google, который сказал, что:

«Оптимизация для RankBrain на самом деле очень проста, и это то, о чем мы, вероятно, говорим уже 15 лет, — и мы рекомендуем — писать на естественном языке. Попробуйте написать контент, который звучит по-человечески. Если вы пытаетесь писать, как машина, то RankBrain просто запутается и, вероятно, просто оттолкнёт вас назад в результатах поиска.

Но если у вас есть контент на сайте, попробуйте зачитать некоторые из ваших статей или что бы вы ни написали, и спросите людей, звучит ли это естественно, как они привыкли слышать. Если это звучит разговорно, если это звучит как естественный язык, который мы использовали бы в вашей повседневной жизни, то, конечно, вы оптимизированы для RankBrain. Если это не так, то вы не оптимизированы.»

Из своего опыта хочу добавить, что профессиональный сленг показывает профессионализм, и увеличивает рейтинг страницы, а с уличным сленгом пока ещё происходит обратное.

Кроме этого тексты, написанные продавцом товара или услуги, который досконально знает свой предмет и в последствии подправленный мастером рекламного слова, позиционируются выше, чем тексты, написанные девушкой-копирайтером за копейки.

53 фактор. Избранные фрагменты

«Когда пользователь задаёт вопрос в Поиске Google, мы можем отобразить результат поиска в специальном блоке фрагментов в верхней части страницы результатов поиска. Этот блок фрагментов содержит сводку ответа, извлечённую из веб-страницы, а также ссылку на страницу, заголовок страницы и URL-адрес». Google 2018.

Google показывает избранные фрагменты, отвечающие на вопросы пользователя из нескольких источников. Это позволяет быстро выбрать сайт, где пользователь мог получить наиболее полный ответ на свой вопрос.

В русской же части интернета избранные фрагменты ещё слабо представлены, поэтому кто первым в своей тематике подготовит эти фрагменты, тот займёт место.

В исследовании, проведённом SEMrush и Ghergich & Co., было проанализировано 6,9 миллиона избранных фрагментов. Кроме того, они дополнительно проанализировали 80 миллионов ключевых слов.

Цель состояла в том, чтобы разбить процентные доли отобранных фрагментов по группам ключевых слов.

О силе ключевых слов.

Когда один из исследователей — A. J. Ghergich удалял знаки вопроса, предлоги и сравнивал их большим набором данных, только 7% общих ключевых слов содержат фрагменты. Небольшие исследования показывают более высокие цифры, но 80 миллионов ключевых слов — это самое большое исследование, которое проводилось на момент написания книги.

Исследование показало, что 41% вопросов содержат фрагменты. Ключевые слова сравнения и предлог также с большей вероятностью показывают избранные фрагменты.

Вопросы показывают увеличение доли ключевых слов с выбранными фрагментами на 480%.

Основным исключением из общего правила являются фразы, начинающиеся словом «как».

Напоминаю, что эти данные из англоязычного интернета. Возможно, в русском сегменте что-то изменится. Но повторюсь, что эта тема на русском языке ещё не изучена.

Проведённый анализ сравнительных ключевых слов немного сложен. На первый взгляд кажется, что они хорошо подходят для отрывков из абзацев. Но это потому, что у Google не так много хорошо структурированных сравнительных таблиц.

A. J. Ghergich утверждает, что он успешно форматировал сравнения цен в таблицы и зарабатывал избранные фрагменты. Содержание не изменилось — только то, как мы представили данные. Ключевые слова для определения цены — это тип ключевых слов в конце цикла покупки, которые имеют высокую конверсию.

Это работает и в русском интернете.

Если вы пытаетесь ранжироваться по вопросам, выберите фрагмент абзаца. Если вы пытаетесь ранжироваться по предлогам, используйте список. Сравнение цен хорошо работает в таблицах.

Теперь у вас есть данные о том, какой тип рекомендуемого фрагмента оптимизировать. Давайте посмотрим, как оптимизировать ваш контент для избранных фрагментов.

Как хорошее практическое правило, копирайтерам создавать абзацы в диапазоне от 40 до 60 слов. Вы должны быть краткими и избегать гигантских стен текста. Если желаете попасть в избранный фрагмент пишите, как пишите СМС.

Вы должны использовать более длинные списки, когда это возможно, поэтому Google вынужден урезать результаты. Вы должны дать пользователю причину перейти на ваш сайт. Если имеет смысл использовать только короткий список, попробуйте использовать достаточно слов для каждого элемента, чтобы Google обрезал каждый элемент списка.

Тем не менее, имейте в виду, что лучше для пользователя. Иногда это короткий, прямой список пунктов, и это нормально.

Как и списки, вы должны создавать таблицы, которые Google будет обрезать (смотрите на изображении выше). Сосредоточьтесь на ключевых словах конца цикла покупки, таких как цена.

Применяйте пейзажные изображения. Ghergich пишет, что они обнаружили, что наиболее распространённое соотношение сторон для показанных фрагментов изображений составляет 4: 3.

Размер медиа-изображения в пикселях составлял 600 х 425.

Пейзажные изображения также выглядят менее точечно, когда Google уменьшает их.

54 фактор. Что такое рекомендуемый фрагмент?

Концентратор избранных фрагментов — это внутренний URL-адрес, который заработал 10 или более популярных фрагментов Google для одной страницы.

Однако при исследовании были обнаружены отдельные страницы, зарабатывающие 200—300 избранных фрагментов для одного внутреннего URL.

Использование стоковой фотографии в верхней части вашей статьи отрицательный сигнал.

Такие изображения никогда не должны были ставиться в первую очередь. Не зацикливайтесь на подсчёте, а сосредотачивайтесь на предоставлении наглядных пособий в вашем контенте, чтобы заработать очки.

Думайте об авторитетных доменах относительно вашей ниши. Нужно очень постараться малым предприятиям, для зарабатывания показов в избранном фрагменте, чтобы считаться актуальным авторитетом в сравнении с конкурентами.

89% популярных URL-адресов фрагментов имеют социальную активность. Это не означает, что социальные акции приравниваются к более высокому рейтингу или получению фрагментов. Это означает, что контент, который мы видим на этих позициях, показывает сильные сигналы вовлечения пользователей.

A. J. Ghergich просмотрел все 3800 URL-адресов через API Google Speed Page. Оценки скорости сайта были хорошими, но показатели дружелюбия к мобильности и удобства использования оказались на низком уровне.

Средний показатель для мобильных устройств составляет 95/100. Средний балл юзабилити составляет 96/100. Для такого большого списка получение такого высокого среднего балла требует внимания.

Я не верю, что точный счёт имеет значение в конце. Важно то, что мобильные пользователи имеют хорошие результаты на веб-сайтах, попавших в избранный фрагмент. Пользователи должны иметь возможность быстро получать ответы и легко перемещаться по сайту.

95,77% списков избранных фрагментов используют списки. Не один список, а множество упорядоченных и неупорядоченных списков на URL.

Пример показателей веб-ресурса связанного со здравьем, который получил около сотни избранных фрагментов:

· Высокая вовлеченность пользователей: 750 социальных акций;

· Мобильный: 99/100;

· Протокол HTTPS: используется;

· Использование СМИ: 12 изображений, связанных со здоровьем;

· Количество слов: 2100 слов в тексте;

· Применение заголовков: 12 тегов h1 — h6;

· Краткое содержание: Средняя длина абзаца составляет 42 слова;

· Использует списки: 7 упорядоченных или неупорядоченных списков;

· Ссылок на приведённые факты 48 ссылок на внешние факты.

Ввиду того что во время прочтения книги исследуемая страница возможно будет удалена или изменена, поэтому смотрите её скриншот на момент публикации её фрагментов в Приложении Скриншот А.

Веб-страница с заголовком «Отследите потерянный iPhone и найдите его с помощью iCloud» получила тоже около сотни избранные фрагментов.

· Высокая активность пользователей: 7 000 в социальных сетях;

· Мобильный: 98/100;

· Протокол HTTPS: используется;

· Использование СМИ: 15 iPhone связанных изображений;

· Количество слов: 2 078 слов;

· Заголовки: 16 тегов h1 — h6;

· Краткое содержание: Средняя длина абзаца составляет 34 слова;

· Использует списки: 6 упорядоченных или неупорядоченных списков;

· Факты цитирования: 6 внешних ссылок.

Смотрите скриншот этой веб страницы на момент публикации её фрагментов в Приложении Скриншот Б.

Привожу эти примеры, чтобы читатель мог увидеть какой объем предстоит провести, чтобы войти в избранный фрагмент, и получить большой авторитет веб-страницы со стороны Google.

Следует заметить, что корреляция не является причинно-следственной связью. Я не рассматриваю избранные центры фрагментов как черный ящик, в котором хранятся секреты получения избранных фрагментов. Я просто указываю на некоторые общие темы, которые, на мой взгляд, поучительны для создателей контента.

Некоторые выводы имеют смысл с точки зрения поисковой системы.

Давайте рассмотрим несколько вещей, которые Google должен делать при отправке пользователям определенного контента.

1. Предоставьте краткие ответы:

· Средний абзац составляет 42 слова;

· Списки отлично подходят для мобильных устройств.

2. Используйте надёжные источники:

· Сильные внешние ссылки;

· Сильная социальная активность.

3. Установить полный охват темы:

· До 50 ссылок на внешние источники;

· Длинна текста более 2000 слов.

4. Фокус на безопасный просмотр: HTTPS.

5. Обеспечить отличное взаимодействие с пользователем на разных устройствах:

· Высокие мобильные дружеские оценки;

· Высокие показатели мобильности.

Благодаря SEMrush у нас есть данные о том, какой тип рекомендуемого фрагмента оптимизировать. Вы знаете, точную длину, которую вы должны использовать для каждого типа фрагмента. У вас также есть представление о центрах фрагментов функций и о том, почему Google доверяет их содержанию.

Итак, Google выбирает контент Избранные фрагменты на основе сочетания длины контента, форматирования, наличие ссылок на авторитетов и использования HTTPS.

Используйте это исследование, чтобы повторно оптимизировать ваш лучший старый контент, который входит в топ-10, но в котором отсутствуют избранные фрагменты.

Дайте поисковым системам ответы, которые им нужны. Используйте сжатые форматы, сфокусируйтесь на опыте мобильных пользователей, и вы получите долгосрочное вознаграждение.

Как получить избранные фрагменты в Google?

Несмотря на всю запутанность, задержку по времени, переписывание ключевых слов, ручную оценку и смещение выбора, которые Google проходит, чтобы сопоставить страницы с запросами по ключевым словам, вам все равно нужно оптимизировать страницу, чтобы занять определенную нишу, и если вы сделаете это разумно, вы откроете богатство длиннохвостого трафика с течением времени (многие из которых бесполезны, как всегда, но то, что RankBrain может очистить со временем).

Замечания:

· В будущем Google собирается производить больше таких прямых ответов или блоков ответов (они движутся в этом направлении с 2005 года).

· Сосредоточение на их срабатывании позволит вашим создателям контента создавать именно те страницы, которые Google хочет ранжировать. Руководства «КАК» и «ЧТО ТАКОЕ» — ИДЕАЛЬНО и ОЧЕНЬ ЛУЧШИЙ тип контента для этого упражнения.

· Google вознаграждает эти статьи и поисковая система вероятно, будет продолжать это делать в будущем.

· Google Knowledge Graph предлагает ещё одну интересную возможность — и указывает на следующий этап в органическом поиске.

· Google производит эти ЯЩИКИ ОТВЕТА, которые могут продвигать страницу из любой точки на первой странице Google до номера 0.

· Все подробные стратегии содержания на вашем сайте должны быть сосредоточены на этом новом аспекте оптимизации Google. Бонус в том, что вы физически создаёте контент, который Google очень хорошо оценивает, даже не принимая во внимание рамки знаний.

· По сути, вы кормите Google лёгкими ответами, чтобы демонстрировать свою страницу. Все это очень хорошо сочетается с органическим линкбилдингом. Чем больше ответов вы разблокируете, тем больше у вас шансов занять место номер ноль ДЛЯ БОЛЬШЕ И БОЛЬШЕ УСЛОВИЙ — и, как следствие, — все больше и больше людей видят ваш утилитарный контент, и в результате вы получаете социальные ссылки и ссылки, если люди заботятся об этом. все об этом.

· Вы можете поделиться расширенным фрагментом (или блоком ответов Google, как их впервые называли SEO). Иногда вы представлены, а иногда это URL-адрес конкурента. Все, что вы можете сделать в этом случае, это продолжать улучшать страницу, пока вы не вытесните своего конкурента.

Мы уже знаем, что Google любит «советы» и «как», а также расширенные часто задаваемые вопросы, но эта система ANSWER BOX Графа знаний предоставляет реальную возможность и, безусловно, является тем, на что должна быть ориентирована любая контентная стратегия, чтобы максимизировать воздействие вашего бизнеса на органический поиск.

К сожалению, это обоюдоострый меч, если вы втягиваетесь в долгосрочную перспективу. В конце концов, Google ищет простые ответы, поэтому, в конечном итоге, может не потребоваться отправлять посетителей на вашу страницу.

Справедливости ради, на данный момент эти расширенные фрагменты Google выглядят в комплекте со ссылкой на вашу страницу и могут оказать положительное влияние на трафик на страницу. Так — на данный момент — это возможность воспользоваться.

55 фактор. Контент, скрытый за вкладками

«Google не может ранжировать страницу для контента в разделах, скрытых за вкладками, потому что Google знает, что пользователи не видят контент, спрятанный в закладках, потому что он не виден по умолчанию».

Специалист отдела качества поиска Google Джон Мюллер.

Это значит, что для уменьшения длинны страницы установленные вкладки, аккордеоны, и подобные красивые элементы, которые нужно кликнуть, чтобы посмотреть содержание не индексируется.

Google не может ранжировать такой скрытый контент в этих разделах. Google считает, что если пользователь сделал запрос, то должен сразу увидеть ответ, не догадываясь, что нужно открыть ещё и соответствующую вкладку.

Вес страницы в этом случае не уменьшается, но следует учитывать, что скрытый текст может быть только дополнительным, и объём текста не учитываются.

Прежде Amazon использовал много вкладок, но теперь они, выводят большую часть контента непосредственно на странице, заставляя пользователя прокручивать и прокручивать, чтобы увидеть содержимое.

В своих справочных документах Google использует клик для расширения, но только для просмотра вопросов. Нажав на сам вопрос, пользователь попадаете на новую страницу с указанным ответом, а не остаётся на той же страницы с ответом под вопросом.

Задумайтесь — требует ли красота этих жертв?

Не забывайте, если человек попадает на ваш сайт из поисковика, то он задал конкретный вопрос, на который хочет получить ответ. У него масса других вопросов, которыми забита голова. Но вот человек попал на ваш сайт и хочет получить ответ на свой вопрос.

Ему не интересны ваши сюрпризы типа найди ответ на этой, страницы, угадай за какой вкладкой спрятан ответ. Именно поэтому Google не учитывает скрытые тексты. Больше того, чем быстрее посетитель увидит ответ на свой вопрос, зайдя на страницу, тем ценнее страница.

56 фактор. Фред

Эксперты команды MOZ, изучив более 700 сайтов, пострадавших от этого обновления, заметили, что 95% из них сайтов имеют две общие черты.

Все сайты кажутся ориентированными на контент, будь то форматы блогов или другой контент, такой как сайты, и все они довольно сильно занимаются размещением рекламы на страницах своих сайтов.

На самом деле, похоже, что многие (не все, но многие) из них были созданы с единственной целью получения дохода от AdSense или других рекламных компаний, и не обязательно принося пользу пользователю.

На сайтах, которые попадают под этот фильтр, также наблюдается падение органического трафика Google на 50% и выше сразу же.

А в некоторых случаях падение трафика доходит до 90% за ночь.

Я должен заметить, что Google официально не подтвердил эти теории или даже что было обновление.

Барри Шварц пишет, что после проверки более 100 различных сайтов:

«Это обновление предназначено для сайтов с низким качеством контента, но приносят доход больший, чем помощь своим пользователям.

Подавляющее большинство URL-адресов, которыми я поделился, показывают веб-сайты одного типа. Контент-сайт, часто в формате блога, но не всегда, с контентом по различным темам, который выглядит написанным для целей ранжирования, а затем содержит рекламные и / или партнёрские ссылки, разбросанные по всей статье. Многие из этих сайтов не являются отраслевыми экспертными сайтами, а скорее имеют контент по широкому кругу тем, которые не добавляют столько ценности, сколько уже написали другие сайты в этой отрасли.

Во многих случаях контент оборачивается вокруг рекламы, где зачастую объявления немного сложно отличить от контента. В других случаях рекламы становится меньше или вообще нет, а скорее выручка за счёт партнёрских моделей, потенциальных клиентов или других возможностей.»

Из этого следует, что создание сайтов с контентом низкого качества, цель которых получение денег от рекламы, не предоставляя полезной информации посетителям невозможно оптимизировать так, чтобы в поисковой выдаче Google.

57 фактор. Автоматически сгенерированный контент

Контент «автоматически сгенерированный» — это контент, созданный программным способом. В тех случаях, когда он предназначен для манипулирования поисковым рейтингом и не помогает пользователям, Google может предпринять отрицательные воздействия с таким контентом. Автоматически сгенерированный контент включает:

· Текст, который не имеет смысла для читателя, но может содержать ключевые слова для поиска.

· Текст переведён с помощью автоматизированного инструмента без проверки человеком без редактуры и корректуры.

· Текст генерируется с помощью автоматизированных процессов, таких как цепочки Маркова (последовательность случайных событий с конечным или счётным числом исходов, характеризующаяся тем свойством, что, говоря нестрого, при фиксированном настоящем будущее независимо от прошлого).

· Текст, созданный с использованием автоматических методов синонимизации или перестановки слов в предложении.

· Текст, сгенерированный из очищающей ленты Atom / RSS или результатов поиска.

· Сшивание или комбинирование контента с разных веб-страниц без добавления достаточного значения.

Google ненавидит авто сгенерированный контент. Если они подозревают, что ваш сайт откачивает контент с других сайтов, это может привести к штрафу или деиндексированию.

58 фактор. Копии частей контента на разных страницах сайта

«Содержимое, которое копируется, но немного отличается от оригинала — отрицательный фактор. Этот тип копирования затрудняет поиск точного соответствия исходного источника. Иногда меняются только несколько слов или меняются целые предложения, или делается модификация «найти и заменять», где одно слово заменяется другим во всем тексте. Эти типы изменений намеренно выполняются, чтобы затруднить поиск исходного источника контента. Мы называем этот контент «скопированным с минимальными изменениями, и как правило не учитываем его при ранжировании».

Руководство по оценке качества поиска Google Март 2017.

Часто на сайтах услуг, которые оказываются в разных городах, создаются страницы с одним и тем же текстом, но меняется только название города.

Повторяющийся контент — это отрицательный фактор для всего сайта. Когда поисковые системы сканируют много URL-адресов с одинаковым (или очень похожим) контентом, это может вызвать ряд проблем с SEO.

1. Пользователи должны пробираться через слишком много дублированного контента, поэтому могут пропустить часть уникального контента.

2. Крупномасштабное дублирование может привести к снижению ранга всего сайта, т.к. один вес страницы будет распределяться на все копии. Например, ремонт смартфонов оказываются в пяти районах города. Создано пять страниц контента, в которых меняется только название района. С точки зрения геозависимости очень здорово, потому что пользователь, набрав «ремонт смартфона в промышленном районе» попадает на страницу, оптимизированную под этот район. Но страниц с мало изменённым текстом — пять, поэтому вес каждой страницы составляет пятую часть.

3. Увеличивает время ранжирования всего сайта за счёт того, что будут индексироваться копии, а не информативные веб страницы. Интернет-магазины часто для увеличения количества товаров делают для каждого размера и / или цвета отдельные страницы. Так ранжируются карточки одного и того же товара в то время, как другой товар ждёт своей очереди.

4. Но даже если контент имеет рейтинг, поисковые системы могут выбрать неправильный URL как «оригинал». Использование canonicalization помогает контролировать дублированный контент.

59 фактор. Дубли или копии страниц на сайте

Дубли или копии — это одна и та же страница сайта, которая открывается по нескольким разным адресам.

Копии страниц чаще всего возникают, когда:

· Движок системы управления содержимым сайта (CMS) автоматически генерирует дубликаты страниц.

Например, http://site.net/press-centre/cat/view/identifier/novosti/ http://site.net/press-centre/novosti/.

· Для Google одна и та же страница, например,

http://site.net/press-centre/novosti/ — со слешем в конце http://site.net/press-centre/novosti — без слеша в конце считается, как 2 разные страницы, т.е. дубли.

· Один и тот же товар представлен в нескольких категориях. Например, костюм может быть в категории костюмы, в категории бренды, и в категории распродажа.

Например, http://site.net/category-1/product-1/ http://site.net/category-2/product-1/ http://site.net/rasprodaza/product-1/.

· При изменении структуры сайта, когда уже существующим страницам присваиваются новые адреса, но при этом сохраняются их дубли со старыми адресами.

Например,http://site.net/catalog/product http://site.net/catalog/podcategory/product.

· Это происходит, когда каждому пользователю, посещающему веб-сайт, назначается другой идентификатор сеанса, который хранится в URL-адресе.

· Версия для печати содержимого также может вызывать повторяющиеся проблемы с содержимым, когда индексируются несколько версий страниц.

· Если сайт имеет отдельные версии на «www.site.com» и «site.com» (с префиксом «www» и без него), и один и тот же контент живёт в обеих версиях. Так создаются дубликаты каждой из этих страниц. То же самое относится к сайтам, которые поддерживают версии как в http: //, так и в https: //. Если обе версии страницы являются живыми и видимыми для поисковых систем — это проблема с дублированием контента. И как говорилось раньше, вес таких страниц делится на количество страниц.

Устранение проблемы с повторяющихся контентом сводится к одной идее: указать, какой из дубликатов является «правильным».

Всякий раз, когда контент на сайте можно найти по нескольким URL-адресам, он должен быть канонизирован для поисковых систем.

(Канонический тег («rel canonical») — это способ сообщить поисковым системам, что конкретный URL-адрес представляет собой главную копию страницы.)

На данный момент используют один из трёх основных способов избавиться от индексирования дублей страниц.

· использование 301 перенаправления на правильный URL,

· rel = canonical атрибут

· или использование инструмента обработки параметров в Google Search Console.

301 перенаправление.

Во многих случаях лучшим способом борьбы с дублирующим контентом является настройка 301 перенаправления с «дублированной» страницы на исходную страницу контента.

Когда несколько страниц с потенциалом для ранжирования хорошо объединены в одну страницу, они не только перестают конкурировать друг с другом; они также создают более сильную релевантность и популярность сигнала для поисковика в целом. Это положительно повлияет на способность «правильной» страницы хорошо ранжироваться.

Атрибут rel = «canonical».

Другим вариантом для борьбы с копиями контента является использование атрибута rel = canonical. Это говорит поисковым системам, что данная страница должна рассматриваться как копия указанного URL-адреса, а все ссылки, метрики контента и «рейтинг мощности», которые поисковые системы применяют к этой странице, должны быть направлены на указанный адрес URL.

Атрибут rel = «canonical» является частью HTML-страницы, заносится в HEAD страницы, и выглядит следующим образом:

Общий формат:

<head>

…[другой код, который должен быть в HTML-заголовке веб-страницы]…

<link href = «АДРЕС (URL) ОРИГИНАЛЬНОЙ СТРАНИЦЫ» rel = «canonical» />

…[другой код, который может быть в HTML-заголовке веб-страницы]…

</ HEAD>

Например, для текущей страницы указать ее каноническую ссылку <link rel=«canonical» href="http://site.com/canonical-link.html"/>.

Атрибут rel = ‘’canonical’’ должен быть добавлен в HTML-заголовок каждой повторяющейся версии страницы, а часть «АДРЕС (URL) ОРИГИНАЛЬНОЙ СТРАНИЦЫ» выше заменена ссылкой на исходную (каноническую) страницу.

Атрибут передает примерно одинаковое количество веса ссылки в качестве перенаправления 301, и, поскольку он реализован на уровне страницы (вместо сервера), более легок в исполнении.

Мета-роботы Noindex.

Один метатег, который может быть особенно полезен при работе с дублями контента, — это meta robots, когда он используется со значениями «noindex, follow».

Обычно называемый Meta Noindex, Followи технически известный как content = «noindex, follow», этот тег мета-роботов добавляется в HTML-заголовок каждой отдельной страницы, который должен быть исключен из индекса поисковой системы.

Общий формат:

<head>

…[другой код, который должен быть в HTML-заголовке веб-страницы]…

<meta name = «robots» content = «noindex, follow»>

…[другой код, который должен быть в HTML-заголовке веб-страницы]…

</ HEAD>

Тег meta robots позволяет поисковым системам сканировать ссылки на странице, но не позволяет им включать эти ссылки в свои индексы. Важно, чтобы дубли страниц все равно сканировалась, хотя говорите Google не индексировать ее, потому что Google явно предостерегает от ограничения доступа к общему доступу к дублированию контента на вашем веб-сайте.

Поисковые системы желают видеть все на случай, если вы сделали ошибку в своем коде.

Использование мета-роботов является особенно хорошим решением для разрешения проблемы с дублями страниц.

Предпочтительная обработка доменов и параметров в Google Search Console.

Консоль Google Search Console позволяет указать предпочтительный домен сайта (например, http://yoursite.com вместо http://www.yoursite.com) и указать, должен ли Googlebot сканировать различные параметры URL-адреса по-разному, т.е. обрабатывать параметры.

В зависимости от структуры URL-адреса и причины возникновения проблемы с дублями страниц, можно настроить или предпочитаемый домен, или обработку параметров (или оба!).

Основным недостатком использования обработки параметров в качестве основного метода работы с копиями страниц является то, что эти изменения, работают только в Google.

Любые правила, введенные с помощью Google Search Console, не повлияют на то, как Яндекса, так и других поисковых систем, которые сканируют сайт. Придется использовать инструменты для других поисковых систем в дополнение к настройке параметров в Search Console.

Файл robots. txt.

В файле robots. txt сообщается поисковым ботам, какие страницы или файлы не стоит сканировать.

Для этого используют директиву «Disallow». Она запрещает заходить на ненужные страницы.

Заметьте, если страница указана в robots. txt с директивой Disallow, это не значит, что страница не будет проиндексирована, и не попадёт в выдачу.

Это может произойти, потому что

· страница была проиндексирована ранее,

· на неё есть внутренние

· или внешние ссылки.

Инструкции robots. txt носят рекомендательный характер для поисковых ботов. Поэтому этот метод не гарантирует удаление дублей из списка ранжированных страниц.

Всегда тег rel = canonical гарантирует, что версия вашего сайта получит дополнительный кредит доверия как «оригинальный» фрагмент контента.

Дополнительные методы для работы с дублирующим контентом.

1. Если веб-мастер определяет, что каноническая версия домена — www.example.com/, то все внутренние ссылки должны идти по адресу

http: // www. example.com/example, а не http: // example.com/page

(обратите внимание на отсутствие www).

2. При копировании фрагмента контента убедитесь, что страница с копированной частью добавляет ссылку на исходный контент, а не вариант URL.

3. Чтобы добавить дополнительную защиту от копирования контента, уменьшающего SEO — вес для контента, разумно добавить ссылку на rel-canonical для ссылок на существующие страницы. Это канонический атрибут, указывающий на URL-адрес, на котором он уже включён, и это значит, что это препятствует воровству контента.

После того как устранили дублирующий контент необходимо проверить сайт ещё раз. Только так можно убедиться в эффективности проведённых действий.

Анализ сайта на дубли желательно проводить регулярно. Только так можно вовремя определить и устранить ошибки, чтобы поддерживать высокий рейтинг сайта.

Дополнительно читайте о дублях страниц в ФИЛЬТРЕ PANDA, в первой части книги «36 фильтров Google».

Смотрите также

а б в г д е ё ж з и й к л м н о п р с т у ф х ц ч ш щ э ю я