Поисковые алгоритмы ранжирования сайтов

Анатолий Косарев

Этот труд – второе издание книги «SEO-продвижение. 36 фильтров Google». Название пришлось изменить потому, как по новым правилам нельзя на обложке писать названия брендов. Кроме этого второе издание претерпело большие изменения и дополнения, в результате её объем увеличился почти в три раза.Книга о том, какие сайты любят пользователи и поисковые системы, и как делать сайт первым в поисковой выдаче.

Оглавление

* * *

Приведённый ознакомительный фрагмент книги Поисковые алгоритмы ранжирования сайтов предоставлен нашим книжным партнёром — компанией ЛитРес.

Купить и скачать полную версию книги в форматах FB2, ePub, MOBI, TXT, HTML, RTF и других

НАЧАЛО

КАЧЕСТВЕННЫЙ, ПОЛЕЗНЫЙ И АВТОРИТЕТНЫЙ КОНТЕНТ

Перед тем как начать рассматривать фильтры желательно понимать их основную цель, чтобы правильно оценивать их работу, и пользоваться их благами.

Итак, начнем.

Google стремится к тому, чтобы в результатах поиска первую позицию всегда занимал лучший ответ, на поставленный вопрос (введенные ключевые слова) пользователем, а далее по убыванию остальные ответы, которые более-менее соответствуют запросу пользователей.

Для решения этой задачи фундаментом всего поиска Google приняты три кита, на основании которых и строятся все фильтры, или алгоритмы по результатам работы, которых выстраиваются сайты в результатах поиска пользователей на их запросы.

Эти три кита следующие.

КАЧЕСТВЕННЫЙ КОНТЕНТ

Качественный контент это:

— оригинальные тексты (копии и рера́йтинг это не качественный контент) и оригинальные изображения (сделанные самостоятельно);

— тексты без орфографических, синтаксических и других ошибок;

— хорошо структурированный текст;

— LSI-терминология (см. далее), и

— достаточный объем, чтобы полно ответить на пользовательский вопрос.

Кроме перечисленных пунктов качественного контента к его качеству относится длинна предложения и слов с учетом образованности аудитории, которой предназначается текст. Например, если магазин продает товары, рассчитанные на блондинок (по жизни, а не по способностям), то предложения должны быть короткими, со словами, которые употребляет именно это группа людей.

Если же текст рассчитан на людей с высшим образованием, то и предложения, и тексты должны быть более длинными, и на том языке, на котором говорит потенциальный клиент.

Google считает, что текст на сайте должен быть информативен. Большое количество не информативных слов (в, на, весьма, вполне, красивый, и пр.) — понижает качество контента, а значит и вес страницы.

У каждого поисковика свой набор не информативных слов и фраз, которые, как и в Google держатся в секрете. Эти слова и фразы называют стоп-словами, или шумовыми.

По мнению Google стоп-слова не несут информацию, и раздражают читателя. Но все же небольшое количество для связки должно быть. Мы не говорим, например, «перелез забор», но говорим «перелез через забор».

Чтобы было проще понять смысл слов, которые понижают рейтинг поясню на примере. Девочки, которые прошли курсы по копирайтингу, получают деньги за свою работу из расчета количества напечатанных знаков. У них расчёт простой чем больше, знаков в тексте тем больше они получат. Имея набор ключевых фраз, они умудряются вплетать массу бессмысленного текста.

Например: «Наша быстро развивающаяся компания молодых специалистов с большим опытом работы, профессионально осуществляет индивидуальный подход к каждому клиенту…». Какая информация, полезная в этой фразе?

Смотрите: «быстро развивающаяся» — ничего не говорящая фраза, читатель видит стандартный штамп, как на других сайтах, и сразу пропускает эту информацию. Здесь нет информации.

Лучше написать: «В прошлом году мы обслужили 150 человек, а в этом 200!». Но эти цифры ничем не подкреплены. Но что значит обслужили? Пришел к ним человек, они ответили на его вопрос, и тот ушел. Можно считать, что они его обслужили. Вдобавок как проверить? Да в таком варианте есть информация, но как её проверить, нет доказательства?

Убедительнее звучит: «В прошлом году мы заплатили 10 000 € налогов, а в этом — 14тыс.». Такая фраза больше внушает доверие, потому что её можно проверить.

Еще один плюс последний фразы — мы не говорим, что фирма развивается быстро, мы предоставляем возможность читателю самостоятельно сделать вывод, что фирма развивается быстро. Ведь могут оказаться люди, для которых увеличение прибыли на 40% за год не такой уж хороший результат.

Такой вариант — не навязанное мнение. Для каждого человека — самое ценное его собственное заключение. Более убедительным будет скриншот оплаты налогов за прошлый и текущий год, сделанный с официального сайта, с соответствующей подписью к скриншоту.

Далее «молодых». Вместо молодых лучше написать конкретно: «Возраст работников от 25 до 30 лет». Плюс за мой вариант — для 18—20 летнего заказчика 30 лет — это зрелый возраст. Для 50-ти летнего человека — это пацаны.

Цифры вместо прилагательных для посетителя звучат убедительнее, а значит и полезнее. И Google воспринимает цифры более весомым фактором.

Идеально будет показать фотографии работников, с кратким описанием, возраста, образованием, стажем работы, и дугой информацией, чтобы каждый мог выносить свое суждение.

Именно поэтому Google рекомендует писать объемные тексты в разделе «О нас». Google считает, что чем больше написано в этом разделе, тем более открытая компания, и ей есть, что о себе рассказать.

Фотографии с подписями для Google тоже положительный сигнал, что информация подается разнообразно, ведь мы любим разнообразие.

Далее «Специалистов» — требуется доказать, что работники действительно специалисты. Например, окончил знаменитый университет, стажировался авторитетной компании, и пр.

Google уже имеет большой набор штампов, пустых фраз, которые не несут информации, которые снижают вес веб-страницы.

И последнее явное противоречие: «с большим опытом работы». Как у молодого специалиста может быть большой опыт работы?

Специалисты Google утверждают, что они отслеживают достоверность информации, и заметив неправду пессимизируют такие страницы.

В качестве примера приводится такая фраза: «Колумб родился в Австралии» как явная ложь.

Пока нет официальных подтверждений, что Google отлавливает бессмысленные фразы типа «молодых специалистов с большим опытом работы», или «индивидуальный подход к каждому клиенту». Уверен, что подобные фразы, набившие оскомину, попадут в черный список не желательных фраз, если ещё не там.

Наше мировосприятие устроено так, что если мы видим хоть небольшое противоречие, уход от четкого ответа, то в нас возникает недоверие ко всему сказанному. Google это знает и снижает вес веб-страниц, которые имеют такие фразы.

Сейчас мы разобрали один небольшой пример, бесполезного текста.

Разбирать же все ограничения, которыми пользуется Google, нет смысла. Лучше довериться его Руководству, чтобы понять, за что сайт может терять в весе.

Повторюсь, что ещё не на все уловки Google реагирует, но те, кто желает делать качественный, полезный и авторитетный сайт должны уже сегодня избегать установленные запреты, декларированные поисковиком.

Google не любит клише и штампы. Не любит прилагательные, местоимения, наречия, причастные и другие обороты. И наоборот, чем больше существительных и глаголов действия и состояния, числительных тем лучше.

Вспомните А. С. Пушкина:

«Буря мглою небо кроет,

Вихри снежные крутя;

То, как зверь, она завоет,

То заплачет, как дитя,

То по кровле обветшалой

Вдруг соломой зашумит,

То, как путник запоздалый,

К нам в окошко застучит.»

Посчитайте сколько здесь существительных и глаголов, а сколько прилагательных, и других частей речи.

Уверен, что у многих тексты на сайтах менее качественные, по алгоритмам Google.

ПОЛЕЗНЫЙ КОНТЕНТ

Полезный контент это:

— ответы на задранные вопросы (на фразы, которые набирает пользователь) поисковику;

— что комментируют, ставят лайки;

— пишут отзывы,

— обсуждают на кухни и курилке.

Полезный контент — это не просто статья на сайте, в блоге, или интернет-магазине, — это ценная информация, которой автор желает поделиться с другими людьми.

Ценная информация — это то, что автор контента отправляет поисковикам, чтобы те помогли поделиться им с другими пользователями.

Так что, по мнению Google качественный контент:

— Это то, чем можно поделиться.

— Это реальные ответы пользователю на задранные вопросы поисковику.

— Это то, что люди обсуждают в сети, на работе, в кругу друзей или дома.

— Это то, что цитируют.

Поэтому Google уделяет внимание, сколько ссылок сделано на веб-страницу, сколько раз процитировали. Возможно, что, сдирая фрагменты текста с других сайтов, Google добавляет вес сайту донору.

Но уж точно не увеличивает вес, где замечен плагиат.

Однако если фрагмент текста берется в кавычки, и пишется, откуда взята цитата, то Google считает, что тема глубоко изучена, а поэтому статья полезная. Конечно, если цитата взята из авторитетного сайта.

LSI — скрытое (латентное) семантическое индексирование. Методика, разрабатываемая Google, и др. поисковыми системами. Цель — улучшение понимания содержания страниц сайта для более точной сортировки и выдачи соответствующего запросу пользователя.

Если прежде было достаточно ключевую фразу повторить несколько раз на странице сайта, чтобы войти в ТОП 10 при выдаче, то сейчас поисковики считают такое повторение фразы поисковым спамом, и за это понижают рейтинг сайта.

Если же поисковый СПАМ — на множестве страниц, то поисковик может исключить этот сайт из поиска.

Сейчас Google проводит семантический анализ страниц сайта, и на основании результатов анализа их ранжирует.

Факторов, влияющих на скрытое семантическое индексирование много, но остановимся на 5-ти наиболее значимых.

1. НАПРАВЛЕННОСТЬ САЙТА

Поисковые машины разделяют сайты по запросам пользователей.

Грубо все сайты делятся на 3 категории.

— У пользователя есть информационные намерения? Информационное намерение — это когда человек ищет информацию по теме. Например, «что такое LSI копирайтинг». Отчасти для таких запросов был создан фильтр Hummingbird.

— Имеют ли человек навигационные цели? Навигационное намерение заключается в том, что поисковик ищет конкретную марку (автомобиля, телевизора, др.), веб-сайт, бизнес или продукт, используя поиск.

— У ищущего есть транзакционные намерения? Транзакционные намерения — это когда человек ищет что-то, потому что хочет это купить. Если предполагаемая покупка не предполагает длительной перевозки, например, пиццы, дивана, садового домика, или покупка услуги, то это геозависимые запросы, то в работу вступают такие фильтры как Pigeon и др.

Обо всех этих фильтрах пойдет речи далее.

Исходя из намерений, кроме стандартных слов, которые сопутствуют этому намерению, страница должна иметь кроме текста и дополнительные информационные блоки.

Например, информационный сайт должен иметь строку поиска, навигацию по разделам, категориям, статьям, чтобы пользователь мог за пару кликов перейти от одного нужного материала к другому. А также комментарии к статьям, и многое другое. Чем больше атрибутов, соответствующих типу сайта, тем сайт имеет больший вес.

Интернет-магазин должен иметь кнопку купить, корзину, цену, описание товара, отзывы на товар, доступные ссылки на оплату и доставку.

Трудно будет интернет-магазину выбиться в лидеры, если он не имеет всех дополнительных атрибутов, которые есть у лидеров поиска по этому запросу.

Например, интернет-магазин, лидер выдачи имеют всё необходимое по требованиям Google. (Правильнее сказать, что по удобству пользователям). Чтобы иметь шансы обойти лидера другому магазину, нужно иметь все эти же атрибуты, плюс добавить свою изюминку.

Если у сайта лидера в магазине нет видео, то новому сайту можно добавить видео-демонстрацию товара. Конечно, у сайта лидера могут быть высокими и другие показатели, но с изюминкой у новичка появляется шанс.

Кроме оценки всего сайта на направленность, и с наличием необходимых атрибутов важную роль играет LSI копирайтинг страниц сайта.

2. СЛОВОСОЧЕТАНИЯ

Если Вы в Гугл наберёте слово «Кухня», то Google не поймет, что нужно, и выдаст всего понемногу, по разным темам.

— Кухня смотреть.

— Кухни стран мира.

— Дизайн кухни.

— Кухонная мебель.

— И много другого.

Но если написать «Кухни смотреть», то поисковик поймет, что человек хочет посмотреть сериал, и ему будут выбраны сайты, на которых можно смотреть сериал.

Если же написать «Кухонная мебель», то будут ранжироваться сайты по этой тематике. Стоит добавить слово купить, и поисковик поймет, что человеку нужен интернет-магазин. Причем Google понимает, что по такому запросу нужно выбрать близлежащие магазины, а не магазины из которых доставка будет стоить дороже мебели.

Но это начало. Для поисковика если появилось слово «мебель», и статья посвящена этой теме, то дополнительно Google ищет и другие слова, которые часто употребляются со словом «мебель». Например, фото, гарнитура, дерево, стол, стул, корпусная, мягкая, и др.

Слову «концерт» сопутствуют слова: билеты, места, аншлаг, премьера, выступление. Если прежде для SEO было достаточно написать на странице слово «Концерт» несколько раз, и выбиться в лидеры, то теперь оценивается полезность по сопутствующим словам.

По технологии LSI (скрытого семантического индексирования), если слову «концерт», не будет найдено сопутствующих слов, то такая страница будет расценена как СПАМ. А под такой фильтр уже попало много сайтов.

Искусственный интеллект Google, и других поисковых систем уже набрали большие библиотеки сопутствующих слов, что помогает алгоритмам лучше понимать текст.

Сравнивая несколько статей с разных сайтов, Гугл позиционирует выше ту статью, в которой было употреблено больше сопутствующих слов. Чем больше сопутствующих слов в статье, тем Google и другие поисковики считает, что тема раскрыта лучше, тем присваивается выше рейтинг статьи. Также учитывается и количество запросов по сопутствующим словам.

3. LSI-КОМПОНЕНТЫ

Каждая веб-сайт должен иметь соответствующие дополнительные компоненты.

Например, если сайт некоторой практикующей клиники, то желательна форма для записи на прием, карта как добраться, часы приема, сертификаты, и многое другое. Собрать сопутствующие компоненты можно посмотрев на первый десяток сайтов в поисковой выдаче, по соответствующим ключевым фразам.

Для интернет-магазина должны быть: карточки товаров, корзина, несколько способов оплаты, возможностей получить товар, и пр. Имеет большое значение и условия возврата, гарантии и после продажное обслуживание.

Если дополнительных компонентов на сайте будет меньше, чем у сайтов-лидеров поисковой выдачи, то будет трудно рассчитывать па высокие места.

4. СИНОНИМЫ

Повторение одной и той же фразы много раз на странице сейчас понижает релевантность. Поисковики считают, что такой текст плохо читается, а поэтому не интересен. Теперь пришло время синонимов — слова различные по звучанию, но совпадающие по значению.

Например, синонимы слова «дом»: здание, дворец, изба, хата, хижина, землянка, лачуга, мазанка, палата, хоромы, терем, чертог, усадьба, дача, вилла, загородный дом. А так же: барак, балаган, беседка, будка, караулка, кибитка, куща, намет, палатка, сторожка, шалаш, чум, шатер, юрта.

А, синонимами слову «обучение» являются: Подготовка, Образование, Бизнес-обучение, Учеба, Преподавание, и еще несколько десятков.

Чем больше синонимов расстановлено в тексте, тем более естественным кажется текст, тем проще поисковикам понять, о чем идет речь, тем выше рейтинг статьи.

Синонимы можно брать из словарей синонимов, но латентное семантическое индексирование опирается опять-таки на запросы пользователей, именно на те слова, которыми наиболее часто пользуются люди.

Задача LSI копирайтера в том, чтобы выбрать самые популярные, и равномерно их расставить по тексту.

5. СТОП-СЛОВА ИЛИ ШУМОВЫЕ СЛОВА

Прежде к стоп-словам относились союзы, предлоги, причастия, и др. Они считались не информационными, и не учитывались.

Теперь палитра стоп-слов заметно расширилась. К ним добавились некоторые прилагательные (если это информационная статья) и ряд «крылатых» выражений, например, «добро пожаловать на наш сайт», или «индивидуальный подход к каждому клиенту».

Поэтому не стоит писать подобные фразы: «У нас работают профессионалы с большим опытом работы». Это уже бесит не только читателей, но и поисковики.

Пользователь на эту фразу сразу же дает 2-а возражения.

— А у кого работают не профессионалы? И

— А у кого работают профессионалы без опыта?

Да и вообще разве есть профи без опыта?

Для поисковика же эта фраза — поисковый СПАМ.

Чем больше на странице шумовых слов и фраз, тем менее информативна статья. Тем ниже её рейтинг, а вместе с этим и рейтинг самого сайта, а если указывается автор текста, то происходит понижения авторитета автора, который распространяется и на другие его статьи.

6. ЛЕГКОСТЬ ЧТЕНИЯ

Сейчас у людей преобладает клиповое мышление. Это значит, что люди слабо воспринимают информацию, на изучение сути которой уходит больше времени, чем на просмотр клипа. Конечно, если предлагаемая информация супер интересная или максимально полезная, то время концентрации пользователя может увеличиться.

А это значит, что тексты должны быть как СМС. Предложения должны быть простыми, не более 160 печатных знака, которые выражают суть.

Теперь Льва Толстовские предложения на пол страницы — не годятся, для обычного потребителя. Считается, что лучше писать простыми предложениями по 6—8 слов, потому как если предложение длинное — читатель забудет о том, что говорилось в начале. Тем более если текст сложный в осмыслении.

Чем проще, тем лучше для любой аудитории. Как говорил А. Эйнштейн цитата: Делай просто, насколько возможно, но не проще этого.

И еще несколько цитат.

«Всё гениальное просто, и всё простое гениально. Маленькому человечку нравится скрывать свою ничтожность за сложными вещами.»

«Рекламные тексты должны быть популярными, а не приятной интеллектуально. Поиск интеллектуальной правды не входит в задачи рекламы.»

«Рекламные тексты всегда обращены только к массам, а не к интеллигенции, поэтому их уровень должен ориентироваться на способности восприятия самых ограниченных среди тех, на кого она должна повлиять».

Google для определения читаемости текста, возможно, пользуется индексом Фога и формулой Флеша.

Во всяком случае что-то подобное Google включил в свои фильтры.

Суть индекса и формулы — просты. Чем меньше слов в предложении, и чем короче слова, тем текст легче читается, а значит, такие статьи получают и больший рейтинг.

Это и понятно. Ведь трудно поверить, что человек, зашедший на веб страницу, не имеет своих проблем, которые его в данный момент гложут. Невероятно, что у него ни о чем не болит голова, к примеру, его жене, детям, тёще от него ничего не надо…

Сейчас любой заходит на страницу, чтобы по-быстрому получить нужную информацию, чтобы использовать её.

Поисковые системы прекрасно понимают направленность сайта.

Для научного, информационного или сайта-магазина язык подачи информации должен быть отличаться.

Если сайт, к примеру, новостной, то там не должно быть длинных и сложных предложений. Должно быть больше действия, глаголов и минимум превосходной степени. Информация действия!

Если же это литературный сайт, то предложения могут быть длиннее, для простора творческих фантазий. Конечно, если сайт рассчитан на то, чтобы человек просто расслаблялся на нем.

Так SEO оптимизация из набора ключевых фраз превращается в более сложную систему продвижения сайта. А LSI-копирайтинг помогает создавать более приемлемые тексты для читателей, и максимально релевантные для поисковых систем.

АВТОРИТЕТНЫЙ КОНТЕНТ

Это:

— Что цитируют на других сайтах и в соц. сети.

— LSI-объекты: сертификаты, галереи работ.

— Возраст сайта, и другие сигналы, о которых будет рассказано далее.

— Сертификация безопасности: сертификат SSL.

Продолжу, и укажу на некоторые значительные признаки авторитетности, которые определяются различными фильтрами.

Например, если пользователь ищет характеристики некоторого бренда, то большее доверие вызовет описание с официального сайта, чем с сайта некоторой ремонтной мастерской, а тем более с домашней странички какого-то Васи.

Если же Вася захочет по некоторому популярному запросу обойти сайт Apple, то это невозможно — никакой ссылочной массы сайту Васи не хватит, чтобы превзойти всемирный бренд.

Наличие политики конфиденциальности указывает Google, что владелец веб-сайта заботится о соблюдении законов и обеспечении безопасности своего веб-сайта.

Контактная информация — ещё один сигнал, который повышает авторитет сайта. А лично вы, к какому сайту испытывает большее доверие, на котором один телефон, или возможность связаться с разными людьми по разным номерам.

Это говорит о том, что предприятие большое, и может себе позволить, чтобы разные люди отвечали на вопросы по разным темам.

Наличие адреса компании, её филиалы.

Маленькие виджеты из социальных сетей, таких как VK, с фотографиями людей, которым понравился этот конкретный сайт.

Авторитетный веб-сайт — действующий сайт, а это определяется по

— обновлениям, и новостям;

— активности в социальных сетях;

— текущий год в авторском праве.

Если сайт авторитетный, то на него ссылаются другие сайты. Чем выше авторитет ссылаемого сайта, тем выше авторитет сайта, на который ссылаются. Кроме этого, учитывается и схожесть тематики. Авторитета не добавит даже самый крутой сайт рецептов, сайту по ремонту компьютеров.

Материал, публикуемый на сайте, должен быть актуальным, убеждать фактами и ссылками, на авторитетные сайты, подтверждающие эти факты.

ПОЛЬЗОВАТЕЛЬСКАЯ ПРОВЕРКА

После этой предварительной (для Google оценки) наступает пользовательская проверка.

Если посетитель зашел на страницу, пробыл там время необходимое для изучения, изложенного материала, то к рейтингу страницы по этому запросу добавляется дополнительный вес.

Если пользователь после изучения страницы не вернулся обратно в поиск, то для Google — эта страница идеально отвечает на запрос. Чем больший процент пользователей не возвращается в поиск, тем ценнее эта страница при ответе на такой запрос пользователей. Google знает, что нет ничего совершенного, поэтому устраивает некоторую ротацию, чтобы увидеть реакцию пользователей при изучении других сайтов.

Кроме этого, есть и дополнительные фильтры, такие как Hummingbird (Колибри), Pigeon (Голубь), и другие, которые помогают молодым и перспективным сайта оказаться (в качестве бонуса) в верхней части первой страницы поиска.

Сейчас ещё в тренде покупать ссылки с высоко ранжируемых сайтов. Чем выше ранжируется сайт, тем больше вес ссылки, которая ведет с него.

Но это только первое время. Далее Google учитывает ценность этой ссылки количеством пользовательских переходов. Сколько должно быть переходов по ссылке, чтобы считать её качественной, очевидно рассчитывается как CTR (количество переходов по ссылки к количеству показов страницы). Очевидно, учитывается популярность страницы из расчета популярности запроса.

Конечно, ещё алгоритмы далеки от совершенства, и бывает, что Google выдает не корректный результат.

Просматривая ответы на поисковые запросы, продвигаемого сайта, Google допустил брак в своей выборке.

Посмотрите на пример, из которого видно, что Google определил, что

· в этом запросе для него главное купить в Риге, а не сам товар.

· Google понял, что ищется, зарядка (блок питания) для ноутбука,

· но почему-то проигнорировал марку и / или параметры.

Заметьте, что Google СЕМЬ раз вывел один и тот же сайт, с семью различными зарядками, и ни разу именно ту зарядку, которая была указана в поисковом запросе, однако эта зарядка есть на сайте.

Этот пример говорит о том, что ещё не всё в алгоритмах идеально, и не более того. Google непрерывно работает над усовершенствованием ранжирования, и уже через пару недель ошибка была исправлена.

Когда остался один снипет из 7, и был заменен на тот, который отобразил искомый блок питания, я как оптимизатор был удовлетворен, потому что если пользователь ищет зарядку с определенными параметрами, то он не будет переходить на те зарядки, которые ему не нужны.

Другой пример. Обратилась к нам небольшая фирма с просьбой продвинуть их сайт. Бюджет на продвижение у них был весьма ограничен, и мы предложили им для начала на каждой странице проставить Meta Keywords, чтобы знать какую страницу оптимизировать под какую ключевую фразу. Page Title и Meta Description у них уже были прописаны, но не совсем корректно.

Представляете, написание Meta Keywords для каждой веб-страници, помогло им уточнить Page Title и Meta Description, и этого было достаточно, чтобы их сайт через некоторое время оказался в первой десятке. Да все ключевые фразы были низкочастотные, и конкуренция в их отрасли маленькая. Поэтому этих элементарных действий хозяином сайта было достаточно для выхода на первую страницу поиска.

И всё же заполнение тега Meta Keywords, (Google объявил много лет назад, что больше не учитывает), были учтены.

Возможно, что ключевые слова не учитываются для определения содержания веб-страницы, но, очевидно влияют на качество и авторитет страницы, ведь тег Meta Keywords никто не отменял, и правила хорошего тона желают, чтобы этот тег был заполнен.

К слову сказать, что мы всегда прописываем ключевые слова для себя, чтобы видеть под какие запросы оптимизировалась страница.

Но вернёмся к идеологии идеального поиска, по мнению Google.

Проделаем мысленный эксперимент.

Представьте, что вы приглашаете к себе в гости людей на банкет.

Что им предложить, если вам дороги эти люди, и желаете показать, что вы заботитесь о них?

Во-первых, то, что они любят. Затем, чтобы продукты были свежими, вкусными и качественными. Если вы заботитесь об их здоровье, то продукты должны быть полезными, без содержания вредных веществ.

Так поступают гостеприимные хозяева.

Также и с сайтом. Приглашая пользователей на свой сайт, поисковики желают, чтобы хозяева сайтов относились к посетителям как к гостям, которых пригласили на свой юбилей.

Приглашая зайти на сайт, нужно, чтобы предлагаемый материал был качественным и полезным.

Кроме этого, хозяева застолья позаботятся о том, чтобы обслуживающий персонал был авторитетным: еда была вкусно приготовленная и подавалась быстро. Гостей не принято заставлять ждать. Само собой тарелки должны быть чистыми, салфетки свежими, и будут соблюдены ещё тысяча мелочей.

Google формально описал, что должно быть на сайте, подобно нормам хорошего банкета, и с помощью своих фильтров по этим критериям определяет полезность, качественность и авторитетность сайта, и декларировал их в своем Руководстве.

А теперь представьте, что хозяин, который претендует на звание лучшего, будет жульничать, обещать одно, а подавать другое, и из недоброкачественных продуктов на грязных тарелках…

Заметьте, что Google из миллионов предложений выбирает лучшее и поднимает их в результатах поиска, а слабые сайты, соответственно уступают место лучшим, и сползают вниз поисковой выдачи.

Разве и это не справедливо?

Мне не нравится распространенное слово «пессимизация», т.е. понижение в рейтинге. Мне кажется, что более объективно говорить о повышении в рейтинге хороших сайтов. Почему менее качественные сайты должны быть выше лучших? Многие оптимизаторы воют на весь интернет, когда какой-либо алгоритм «считает», что его сайт хуже других. Но разве алгоритм виноват, что конкурент сделал лучше.

ДА! Уходит время халявы, когда материал на сайте искусственно подстраивался под определенный алгоритм оставался в лидерах надолго. Алгоритмы совершенствуются все быстрее и быстрее. Поэтому становится выгоднее работать на перспективу, следуя Руководству Google, чем пользоваться ещё неучтенными фактами, чтобы получить минутное пребывание на вершине поиска.

Но есть алгоритмы создания высоко ранжируемых сайтов, следуя инструкциям, которых, даже в конкурентных нишах возможно получить хороший результат.

Да не все Пушкины, Шекспиры и Рубенсы, и с этим нужно смериться. Не все способны пробежать стометровку меньше, чем за 12 секунд.

Не все способны сделать что-то стоящее, и стать первыми, но многие хотят, поэтому выискиваются лазейки, придумываются уловки, а в результате, как всегда, страдает конечный потребитель.

Вот и получается, аналогичная ситуация: несколько человек приглашают вас на банкет. Google оценивает у кого банкет лучше, туда и направляет посетителей. Тот, кто лучше направляет, к тому и обращается конечный пользователь, поэтому в Google заинтересован в качественном поиске.

Чтобы понять, что значит для Google качественный контент нужно не забывать, что ПОИСК — это бизнес, а продуктом этого бизнеса является результат выдачи. Чем качественнее выдача, тем больше людей пользуются этим поисковиком, а это уже монетизированный продукт.

Каждая ключевая фраза, введенная пользователем в строке поиска для Google — это вопрос, на который пользователь хочет найти ответ.

Первая цель поисковика понять, какой вопрос был задан, что пользователь из им набранного набора слов желает узнать или получить. Эта задача, как известно из обрывков заявлений Google об организации поиска состоит из двух частей.

Это значит, что по этим или подобным запросам подобрать лучшие сайты, которые прежде удовлетворили пользователей. Заметьте, не накрученные сайты, а реальные.

Понимание запроса (вопроса пользователя) осуществляется и на основании прежних запросов этого пользователя. Это понимание, что же заданным вопросом (введенной ключевой фразой) пользователь желает узнать. Например, если прежде человек искал характеристики телевизоров и сравнивал их, а после этого набрал в поисковике «мониторы», то вероятнее всего он желает сравнивать теперь мониторы.

Если же, Google заметил, что пользователь купил уже и телевизор, и другое в интернет-магазинах, то вероятнее всего имеет намерение купить монитор. Ни для кого не секрет, что Google отслеживает действия пользователя, знает о его намерениях не хуже, чем сам пользователь, и «подсовывает» ему не только рекламу, но и страницы в рамках пожеланий пользователя.

Для Google постоянный пользователь социальных сетей — это открытая книга. Можно представить какой мощностью обладает Google, если сейчас при приеме на работу работодатели стали обращаться к небольшим фирмочкам, которые собирают в социальных сетях всю открытую информацию, например с кем дружит, на кого подписан, что комментирует и репостит.

Вторая цель — подобрать лучшие страницы и вывести их пользователю первыми, чтобы ознакомившись с первой же, посетитель получил ответ на свой вопрос.

Согласитесь, что эта задача — искусственного интеллекта, все больше напоминает разговор людей: один задает вопрос, а другой отвечает. Заметьте, что Google оценивает, и ранжирует разные ответы на поставленный вопрос. Если ответ удовлетворяет большинство пользователей, то по этому запросу сайт поднимается выше в результатах поиска сайта, который удовлетворил меньшее количество пользователей.

И наоборот. Чем меньшее количество пользователей по конкретному запросу удовлетворил ответ на веб-страницы, тем ниже он будет позиционироваться.

А любые манипуляции для улучшения своих позиций будут плодотворны только временно: фильтры постоянно совершенствуются.

РЕКОМЕНДАЦИИ ОТ GOOGLE

Google — имея миллиарды страниц для анализа, с помощью алгоритмов, научился определять, какие веб-страницы отвечают на запросы пользователей, а какие имитируют свою полезность.

К наиболее распространенным способам имитации качества полезности и авторитетности Google относит следующие:

— Автоматически сгенерированное содержание.

— Текст, который бесполезен для читателей, но содержит ключевые слова, часто используемые в поиске.

Текст, который переведен с помощью автоматического инструмента и опубликован без редактирования.

Текст, созданный с помощью автоматических средств, например, цепей Маркова.

Текст, созданный автоматически с помощью методов подбора синонимов.

Текст, сформированный путем копирования контента из фидов Atom/RSS или результатов поиска.

Контент, скопированный с различных веб-страниц без добавления уникальной информации.

— Участие в схемах обмена ссылками, например.

Покупка или продажа ссылок, которые учитываются в системе PageRank. К этой категории относится выплата денег за размещение ссылок или сообщений, содержащих ссылки, предоставление товаров или услуг в обмен на публикацию ссылок, а также раздача «бесплатных» товаров с условием размещения отзывов о них со ссылками.

— Чрезмерный обмен ссылками («Сошлись на меня, а я сошлюсь на тебя») и партнерские страницы, служащие исключительно для перекрестного обмена ссылками.

Масштабная реклама с помощью статей или комментариев с текстовыми ссылками, насыщенными ключевыми словами.

— Использование программ или сервисов для автоматизированного создания ссылок на сайт.

— Требование разместить ту или иную ссылку в соответствии с условиями использования или другим соглашением, если при этом владельцу контента со стороннего ресурса не предоставляется возможность заблокировать PageRank доступ к своей странице, например, с помощью директивы nofollow.

Публикация страниц с некачественным или скопированным контентом, например,

— автоматически созданное содержание;

— бесполезные партнерские страницы;

— плагиат, например, скопированное содержание или некачественные публикации в блоге;

Маскировка, например,

— Предоставление поисковым системам страницы с HTML-текстом, а пользователям — страницы с картинками или Flash.

— Добавление на страницу текста или ключевых слов только в ответ на запрос этой страницы агентом пользователя, связанным с поисковой системой.

— Скрытая переадресация, например,

— Поисковый сканер анализирует одну страницу, а пользователям показывается совершенно другая.

— Пользователи компьютеров видят обычную страницу, в то время как пользователи смартфонов перенаправляются хакерами на совершенно другой домен.

— Скрытый текст и скрытые ссылки, например,

— Использовать текст белого цвета на белом фоне

— Поместить изображение поверх текста

— Поместить текст за пределами экрана с помощью CSS

— Установить для размера шрифта значение 0

— Скрыть ссылку, используя в качестве текста ссылки один незаметный символ (например, дефис в середине абзаца)

Дорвеи, например,

— Несколько доменных имен или страниц с таргетингом на отдельные регионы или города для переадресации пользователей на одну и ту же страницу.

— Страницы, единственной целью которых является перенаправление пользователей в определенный раздел сайта.

— Практически одинаковые страницы, которые скорее соответствуют возможным результатам поиска, чем выстроены в четкую иерархию.

Скопированное содержание, например,

— Сайты, размещающие контент из других источников без дополнительной обработки.

— Сайты, на которых публикуется скопированное содержание с незначительными изменениями (например, слова заменены синонимами или используются автоматические методы обработки).

— Сайты, транслирующие с других ресурсов фиды, без собственных функций для работы с ними.

— Сайты, содержащие только встраиваемый контент, например, видео, изображения и прочие мультимедийные материалы, с других сайтов без дополнительной значимой информации.

Участие в партнерских программах, если вы не создаете контент самостоятельно, например,

— Страницы со ссылками на товары, на которых размещены только описания и отзывы, скопированные с сайта продавца, и отсутствует какой-либо уникальный контент.

Бесполезные страницы, которые содержат преимущественно материалы из других ресурсов и минимум оригинального контента.

Загрузка страниц с нерелевантными ключевыми словами, например,

— Список телефонных номеров без дополнительной информации,

— Текстовые блоки с перечнем городов и областей, по запросам которых веб-мастер пытается повысить рейтинг страницы,

— Многократное повторение слова или фразы, из-за чего текст не воспринимается как естественный.

Создание вредоносных страниц для фишинга и установки вирусов, троянов или другого нежелательного ПО, например,

— Манипулирование контентом таким образом, что при нажатии пользователем на конкретную ссылку или кнопку фактически происходит нажатие на другой элемент страницы.

Внедрение на страницы новых объявлений или всплывающих окон, или замена существующих объявлений другими, а также реклама или установка программного обеспечения, которое выполняет эти действия.

— Добавление нежелательных файлов при загрузке содержания, запрошенного пользователем.

Установка вредоносного ПО, троянских программ, шпионского ПО, рекламы или вирусов на компьютер пользователя.

— Изменение домашней страницы в браузере или настроек поиска без ведома и согласия пользователя.

Некорректное использование разметки для расширенных описаний веб-страниц.

— Автоматические запросы в Google.

Заметьте, что начинающему веб-мастеру нужно неистово «стараться» для того, чтобы его сайт попал под бан поисковой системы.

Google редко применяет репрессивные меры, т.е. исключает из индекса сайты, ограничиваясь пессимизацией — искусственным понижением в позиции поисковой выдачи.

Для этого специалисты интернет гиганта предусмотрели множество алгоритмов, которые разложены в группы, или фильтры, о которых и будем говорить дальше.

4 ЭТАПА ПОИСКА поисковиков, которые должны знать все SEO-специалисты

Понимание того, как работают поисковые системы, имеет основополагающее значение для профессионалов SEO. Предоставляю последнюю информацию о сканировании, рендеринге, индексировании и ранжировании.

Не все согласились с акцентом на важность понимания различий между сканированием, рендерингом, индексированием и ранжированием.

Я заметил, что некоторые специалисты-практики считают такие опасения простой семантикой или ненужным «контролированием» со стороны элитарных SEO-специалистов.

В какой-то степени некоторые ветераны SEO, возможно, действительно очень слабо объединили значения этих терминов. Это может случиться во всех дисциплинах, когда те, кто обладает знаниями, перебрасываются жаргоном с общим пониманием того, что они имеют в виду. Ничего изначально плохого в этом нет.

Мы также склонны антропоморфизировать поисковые системы и их процессы, потому что интерпретация вещей путем описания их как имеющих знакомые характеристики облегчает понимание. В этом тоже нет ничего плохого.

Но эта неточность, когда речь идет о технических процессах, может сбить с толку и усложнить задачу тем, кто пытается изучить дисциплину SEO.

Можно использовать эти термины небрежно и неточно только до некоторой степени или как стенограмму в разговоре. Тем не менее, всегда лучше знать и понимать точные определения этапов технологии поисковых систем. А это позволит и лучшему пониманию работы фильтров, благодаря которым и происходит ранжирование сайтов при поисковой выдаче.

4 стадии поиска

Включение веб-контента в результаты поиска осуществляется множеством различных процессов. В некотором смысле может быть грубым упрощением сказать, что для этого требуется всего несколько отдельных этапов.

Каждая из четырех стадий, которые я здесь рассматриваю, имеет несколько подпроцессов, которые могут происходить внутри них.

Помимо этого, существуют важные процессы, которые могут быть асинхронными с ними, например:

· Типы защиты от спама.

· Включение элементов в Граф знаний и обновление панелей знаний информацией.

· Обработка оптического распознавания символов в изображениях.

· Преобразование аудио в текст, в аудио и видео файлах.

· Оценка и применение данных PageSpeed.

· И более.

Ниже приведены основные этапы поиска, необходимые для того, чтобы веб-страницы отображались в результатах поиска.

ПОЛЗАНИЕ

Сканирование происходит, когда поисковая система запрашивает веб-страницы с серверов веб-сайтов.

Представьте, что Google, Яндекс и Microsoft Bing сидят за компьютером, вводят или нажимают ссылку на веб-страницу в окне своего браузера.

Таким образом, машины поисковых систем посещают веб-страницы так же, как и каждый из нас. Каждый раз, когда поисковая система посещает веб-страницу, она собирает копию этой страницы и отмечает все ссылки, найденные на этой странице. После того, как поисковая система соберет эту веб-страницу, она перейдет к следующей ссылке в своем списке ссылок, которые еще предстоит посетить.

Это называется «сканированием» или «пауками», что вполне уместно, поскольку сеть метафорически представляет собой гигантскую виртуальную сеть взаимосвязанных ссылок.

Программы сбора данных, используемые поисковыми системами, называются «пауками», «ботами» или «краулерами».

Основной программой сканирования Google является «Googlebot», в Яндекс — YandexBot/3, а у Microsoft Bing — «Bingbot». У каждого есть другие специализированные боты для просмотра рекламы (например, GoogleAdsBot и AdIdxBot), мобильных страниц и многого другого.

Этот этап обработки веб-страниц поисковыми системами кажется простым, но есть много сложностей в том, что происходит, только на этом этапе.

Подумайте о том, сколько может быть систем веб-серверов, работающих под управлением разных операционных систем разных версий, а также различных систем управления контентом (например, WordPress, Wix, Squarespace), а затем уникальных настроек каждого веб-сайта.

Многие проблемы могут помешать роботам поисковых систем, сканировать страницы, что является отличной причиной для изучения деталей, связанных с этим этапом.

Во-первых, поисковая система должна в какой-то момент найти ссылку на страницу, прежде чем она сможет запросить страницу и посетить ее. (Было известно, что при определенных конфигурациях поисковые системы подозревают, что могут быть другие, нераскрытые ссылки, такие как один шаг вверх в иерархии ссылок на уровне подкаталога или через некоторые ограниченные внутренние формы поиска на веб-сайте.)

Поисковые системы могут обнаруживать ссылки веб-страниц следующими способами:

· Когда администратор веб-сайта отправляет ссылку напрямую или раскрывает карту сайта поисковой системе.

· Когда другие сайты ссылаются на страницу.

· Через ссылки на страницу с собственного веб-сайта, при условии, что на веб-сайте уже есть некоторые проиндексированные страницы.

· Посты в социальных сетях.

· Ссылки найдены в документах.

· URL-адреса, найденные в письменном тексте и не связанные гиперссылками.

· Через метаданные различного рода файлов.

· И более.

В некоторых случаях веб-сайт дает указание поисковым системам не сканировать одну или несколько веб-страниц через свой файл robots. txt, который находится на базовом уровне домена и веб-сервера.

Файлы robots. txt могут содержать в себе несколько директив, указывающих поисковым системам, что веб-сайт запрещает сканирование определенных страниц, подкаталогов или всего веб-сайта.

Указание поисковым системам не сканировать страницу или раздел веб-сайта не означает, что эти страницы не могут отображаться в результатах поиска. Предотвращение их сканирования таким образом может серьезно повлиять на их способность хорошо ранжироваться по ключевым словам.

В других случаях поисковые системы могут с трудом сканировать веб-сайт, если сайт автоматически блокирует ботов.

Это может произойти, когда системы веб-сайта обнаружат, что:

· Бот запрашивает больше страниц за определенный период времени, чем человек.

· Бот одновременно запрашивает несколько страниц.

· IP-адрес сервера бота находится в пределах зоны, которую веб-сайт должен исключить.

· Запросы бота и/или запросы других пользователей на страницы перегружают ресурсы сервера, что приводит к замедлению обслуживания страниц или ошибкам.

Однако боты поисковых систем запрограммированы на автоматическое изменение коэффициента задержки между запросами, когда они обнаруживают, что сервер изо всех сил пытается не отставать от спроса.

Для крупных веб-сайтов с часто меняющимся содержимым страниц «краулинговый бюджет» может стать фактором, определяющим, смогут ли поисковые роботы сканировать все страницы.

По сути, Интернет — это что-то вроде бесконечного пространства веб-страниц с разной частотой обновления. Поисковые системы могут не успеть посетить каждую страницу, поэтому они расставляют приоритеты для сканируемых страниц.

Веб-сайты с огромным количеством страниц или сайты, которые медленнее реагируют, могут израсходовать свой доступный краулинговый бюджет до того, как будут просканированы все их страницы, если они имеют относительно более низкий ранговый вес по сравнению с другими веб-сайтами.

Полезно отметить, что поисковые системы также запрашивают все файлы, которые используются для создания веб-страницы, такие как изображения, CSS и JavaScript.

Как и в случае с самой веб-страницей, если дополнительные ресурсы, участвующие в создании веб-страницы, недоступны для поисковой системы, это может повлиять на то, как поисковая система интерпретирует веб-страницу.

РЕНДЕРИНГ

Когда поисковая система сканирует веб-страницу, она затем «рендерит» страницу. Это включает в себя использование информации HTML, JavaScript и каскадной таблицы стилей (CSS) для создания того, как страница будет отображаться для пользователей настольных компьютеров и/или мобильных устройств.

Это важно для того, чтобы поисковая система могла понять, как содержимое веб-страницы отображается в контексте. Обработка JavaScript помогает гарантировать, что они могут иметь весь контент, который пользователь-человек увидит при посещении страницы.

Поисковые системы классифицируют этап рендеринга как подпроцесс на этапе сканирования. Я перечислил это здесь как отдельный шаг в процессе, потому что получение веб-страницы и последующий анализ содержимого, чтобы понять, как оно будет выглядеть в браузере, — это два разных процесса.

Google использует тот же движок рендеринга, что и браузер Google Chrome, называемый «Rendertron», который построен на основе системы браузера Chromium с открытым исходным кодом.

Bingbot использует Microsoft Edge в качестве механизма для запуска JavaScript и отображения веб-страниц. Теперь он также построен на основе браузера на основе Chromium, поэтому он по существу отображает веб-страницы так же, как это делает Googlebot.

Google хранит копии страниц в своем репозитории в сжатом формате. Похоже, что Microsoft Bing тоже так делает (но я не нашел документации, подтверждающей это также как и на Яндекс). Некоторые поисковые системы могут хранить сокращенную версию веб-страницы, состоящую только из видимого текста, лишенного всего форматирования.

Рендеринг в основном становится проблемой в SEO для страниц, ключевые части контента которых зависят от JavaScript/AJAX.

И Google, и Яндекс, и Microsoft Bing будут выполнять JavaScript, чтобы увидеть весь контент на странице, а более сложные конструкции JavaScript могут быть сложными для работы поисковых систем.

Я видел веб-страницы, созданные с помощью JavaScript, которые были практически невидимы для поисковых систем. Это приводило к крайне неоптимальным веб-страницам, которые не могли ранжироваться, по своим поисковым запросам.

Я также видел случаи, когда страницы категорий с бесконечной прокруткой на веб-сайтах электронной коммерции плохо работали в поисковых системах, потому что поисковая система не могла видеть столько ссылок на продукты.

Другие условия также могут мешать рендерингу. Например, когда есть один или несколько файлов JavaScript или CSS, недоступных для роботов поисковых систем из-за того, что они находятся в подкаталогах, запрещенных robots. txt, будет невозможно полностью обработать страницу.

Googlebot YandexBot/3 и Bingbot в основном не будут индексировать страницы, для которых требуются файлы cookie. Страницы, которые условно предоставляют некоторые ключевые элементы на основе файлов cookie, также могут не отображаться полностью или должным образом.

ИНДЕКСАЦИЯ

После того, как страница просканирована и отображена, поисковые системы обрабатывают страницу, чтобы определить, будет ли она сохранена в индексе или нет, и понять, о чем эта страница.

Индекс поисковой системы функционально подобен индексу слов, найденных в конце книги.

В указателе книги будут перечислены все важные слова и темы, найденные в книге, в алфавитном порядке каждого слова, а также список номеров страниц, на которых будут найдены слова/темы.

Индекс поисковой системы содержит множество ключевых слов и последовательностей ключевых слов, связанных со списком всех веб-страниц, на которых найдены ключевые слова.

Индекс имеет некоторое концептуальное сходство с таблицей поиска базы данных, которая, возможно, изначально была структурой, используемой для поисковых систем. Но основные поисковые системы, вероятно, теперь используют что-то на пару поколений более сложное для достижения цели поиска ключевого слова и возврата всех URL-адресов, относящихся к слову.

Использование функциональности для поиска всех страниц, связанных с ключевым словом, является архитектурой, позволяющей экономить время, поскольку для поиска всех веб-страниц по ключевому слову в режиме реального времени каждый раз, когда кто-то ищет его, потребуется слишком много времени.

Не все просканированные страницы останутся в поисковом индексе по разным причинам. Например, если страница содержит метатег robots с директивой «noindex», он указывает поисковой системе не включать страницу в индекс.

Точно так же веб-страница может включать X-Robots-Tag в свой HTTP-заголовок, который указывает поисковым системам не индексировать страницу.

В других случаях канонический тег веб-страницы может указать поисковой системе, что страница, отличная от текущей, должна считаться основной версией страницы, в результате чего другие, неканонические версии страницы будут исключены из индекса.

Google также заявил, что веб-страницы не могут быть сохранены в индексе, если они имеют низкое качество (страницы с повторяющимся содержанием, страницы с недостаточным содержанием и страницы, содержащие полностью или слишком много нерелевантного контента).

Также существует долгая история, которая предполагает, что веб-сайты с недостаточным коллективным рейтингом PageRank могут не индексировать все свои веб-страницы — предполагая, что более крупные веб-сайты с недостаточным количеством внешних ссылок могут не быть тщательно проиндексированы.

Недостаточный краулинговый бюджет также может привести к тому, что веб-сайт не проиндексирует все свои страницы.

Важным компонентом SEO является диагностика и исправление случаев, когда страницы не индексируются. По этой причине рекомендуется тщательно изучить все различные проблемы, которые могут ухудшить индексацию веб-страниц.

РЕЙТИНГ

Ранжирование веб-страниц — это этап обработки поисковыми системами, которому, вероятно, уделяется наибольшее внимание.

Как только поисковая система получает список всех веб-страниц, связанных с определенным ключевым словом или ключевой фразой, она должна определить, как она будет упорядочивать эти страницы при выполнении поиска по ключевому слову.

Если вы работаете в сфере SEO, вы, вероятно, уже хорошо знакомы с тем, что включает в себя процесс ранжирования. Процесс ранжирования поисковой системы также называют «фильтрацией», или «индексацией».

Сложность, связанная с стадией ранжирования поиска, настолько велика, что одна только она заслуживает описания в нескольких книгах.

Критериев, влияющих на ранжирование веб-страницы в результатах поиска, очень много. Сигналы, которые Google снимает с веб-страницы, исчисляются тысячами. Сигнала собраны в группы, которые будем называть векторами или алгоритмами. А алгоритмы сгруппированы в фильтры.

Например, наибольшее количество алгоритмов ранжирования собраны в фильтры, такие как PENGUIN, HUMMINGBIRD и POSSUM.

PageRank — это самая ранняя версия фильтра ранжирования Google, изобретенная в 1996 году. Он был построен на концепции, согласно которой ссылки на веб-страницу — и относительная важность источников ссылок, указывающих на эту веб-страницу, — могут быть рассчитаны для определения относительной силы ранжирования страницы, на все остальные страницы.

Метафора для этого заключается в том, что ссылки в некоторой степени рассматриваются как голоса, и страницы с наибольшим количеством голосов будут занимать более высокое место в рейтинге, чем другие страницы с меньшим количеством ссылок/голосов.

Перенесемся в 2022 год, и большая часть ДНК старого алгоритма PageRank все еще встроена в алгоритм ранжирования Google. Этот алгоритм анализа ссылок также повлиял на многие другие поисковые системы, которые разработали аналогичные методы.

Старый метод алгоритма Google должен был итеративно обрабатывать ссылки в Интернете, передавая значение PageRank между страницами десятки раз, прежде чем процесс ранжирования был завершен. Эта итеративная последовательность вычислений на многих миллионах страниц может занять почти месяц.

В настоящее время новые ссылки на страницы вводятся каждый день, и Google рассчитывает рейтинг своего рода капельным методом, что позволяет учитывать страницы и изменения гораздо быстрее, не требуя месячного процесса расчета ссылок.

Кроме того, ссылки оцениваются сложным образом — отзыв или снижение ранжирования платных ссылок, проданных ссылок, заспамленных ссылок, ссылок, не одобренных, и т. д.

На ранжирование также влияют широкие категории факторов, помимо ссылок, в том числе:

· Экспертиза, Авторитетность и Надежность или сокращенно EAT.

· Качественный контент.

· Расположение/близость нахождения товара или услуги.

· История личного поиска пользователя.

· Зашифрованный и незашифрованный (использование Secure Socket Layer или SSL) для доставки веб-страниц, обозначенных префиксом URL-адреса «HTTPS».

· Мобильность сайта.

· Скорость загрузки страницы.

· И еще много факторов, о которых рассказывается в этой книги.

ЧТО ДАЁТ ПОНИМАНИЕ КЛЮЧЕВЫХ ЭТАПОВ?

Понимание ключевых этапов поиска является важным условием для того, чтобы стать профессионалом в индустрии SEO.

Некоторые люди в социальных сетях считают, что отказ от найма кандидата только потому, что он не знает различий между сканированием, рендерингом, индексированием и ранжированием, означает «зайти слишком далеко».

Полезно знать различия между этими процессами. Тем не менее, я бы не считал, что размытое понимание таких терминов может нарушать условия сделки.

SEO-специалисты имеют разный опыт. Важно то, что они достаточно поддаются обучению, чтобы учиться и достигать базового уровня понимания.

Оглавление

* * *

Приведённый ознакомительный фрагмент книги Поисковые алгоритмы ранжирования сайтов предоставлен нашим книжным партнёром — компанией ЛитРес.

Купить и скачать полную версию книги в форматах FB2, ePub, MOBI, TXT, HTML, RTF и других

Смотрите также

а б в г д е ё ж з и й к л м н о п р с т у ф х ц ч ш щ э ю я