Поисковые алгоритмы ранжирования сайтов

Анатолий Косарев

Этот труд – второе издание книги «SEO-продвижение. 36 фильтров Google». Название пришлось изменить потому, как по новым правилам нельзя на обложке писать названия брендов. Кроме этого второе издание претерпело большие изменения и дополнения, в результате её объем увеличился почти в три раза.Книга о том, какие сайты любят пользователи и поисковые системы, и как делать сайт первым в поисковой выдаче.

Оглавление

* * *

Приведённый ознакомительный фрагмент книги Поисковые алгоритмы ранжирования сайтов предоставлен нашим книжным партнёром — компанией ЛитРес.

Купить и скачать полную версию книги в форматах FB2, ePub, MOBI, TXT, HTML, RTF и других

GOOGLE ФИЛЬТРЫ

Если человек на машине, нарушает правила дорожного движения, мешает другому транспорту, создавая опасную ситуацию на дороге, то это считается очень плохо. Если такого нарушителя останавливает полиция, штрафует его, ставя нарушителя тем самым на место, то это считается нормой.

Если же Google ставит нарушителя правил на место, то это почему-то называется пессимизацией. Мне кажется, что все-таки более правильно называть действия Google определение более точного положения сайта в рейтинге.

Реально Google редко кого штрафует, и то это происходит после ручной проверки. Понижение же в рейтинге — это усовершенствование алгоритма, который прежде не точно оцени истинное значение сайта.

Есть и искусственное понижение, настоящая пессимизация, когда Google не доверяет ещё не известному, или малоизвестному сайту, что, в общем-то, похоже на поведение человека, который вступает в общение с незнакомцем.

1 — DOMAIN NAME AGE (ВОЗРАСТ ДОМЕННОГО ИМЕНИ)

Представьте, что к вам на улице подходит незнакомый человек, и начинает вам что-то рассказывать. Поверите ли вы ему? Уверен, что вряд ли!

Но в сети верят всему, потому что соприкосновение идет постоянно с сотнями неизвестных пользователю сайтов. Если культура поведения в быту диктует одни нормы поведения, то в сети бдительность утрачивается.

В интернет постоянно появляются сайты, которые направлены, чтобы обмануть человека. Одно дело, когда выдается фейковая новость, которую прочитал и забыл. Но другое дело, когда размещенная в сети информация может причинить вред здоровью или финансовому состоянию человека.

Google пытается защитить доверчивых пользователей, и берет на себя некоторую ответственность, не доверяя молодым, не проверенным сайтам, и понижает их рейтинг.

Google имеет доступ к регистрационным данным всех доменов, знает, когда появился сайт, и как любой человек не доверяет новичкам. Сайт должен сначала зарекомендовать себя. Так Google борется с сайтами однодневками, которые приходят в сеть не с целью донести полезную информацию, или продать достойный товар конечному пользователю.

Кроме этого Google, имея доступ к реестру, знает, сколько и каких сайтов зарегистрировал человек. Если у человека, к примеру имеет несколько зарегистрированных сайтов, и все сайты, как и их хозяин, имеют низкий рейтинг, то его новый сайт для поисковика, всегда будет иметь низкий рейтинг, потому что автор имеет низкий авторитет.

Первым фильтром, под который попадают все новые сайты, точнее доменные имена — это «Возраст доменного имени» (Domain Name Age). Этим фильтром Google ПЕРЕСТРАХОВЫВАЕТСЯ, и в течение года следит за новым сайтом. Срок может быть уменьшен, если сайт доказывает свою полезность и актуальность со стороны пользователей.

Сократить срок действия фильтра «Возраст доменного имени» помогает реклама в Google, которая показывает хороший результат, положительные отзывы на независимых сайтах, и в профиле компании, в сервисе «Google Мой бизнес». К другим способам сокращения действия фильтра Domain Name Age относится повышение авторитета сайта, автора и каждой веб-страницы.

Естественное увеличение ссылочной массы с высоко ранжируемых сайтов — существенно сокращает действие этого фильтра.

Если же у вас сайт правительственной или другой авторитетной организации, то действие фильтра «Возраст доменного имени» существенно сокращается.

Незначительно можно сократить действие этого фильтра, если покупать доменное имя не на год, а на пять лет. Это для Google хороший сигнал, что сайт не однодневка.

По оценкам разных компаний в 2021 году ежедневно создавалось от миллиона до полутора миллионов сайтов. И как показывает практика, более 80% из них исчезают в течение первого же года. Ещё 10—15% из них не имеют развития.

В эти 95% сайтов входят:

— спамерские сайты, которые создаются для увеличения рейтинга основного сайта;

— мошеннические сайты, которые под благовидными предлогами выманивают деньги у пользователей;

— фишинг сайты;

— другие вредные, или бесполезные для пользователя сайты;

— сайты начинающих веб-мастеров, которые не дают положительный результат и закрываются через год по окончанию срока действия домена.

Именно поэтому Google, и не присваивает сайту на молодом домене высокий ранг. Соответственно и статьи на сайте, как ответы на вопросы пользователей имеют понижающий коэффициент рейтинга.

Покупка существующего несколько лет доменного имени увеличит вес веб-сайта и страниц при соблюдении определенных Google (м) формальностей.

2 — SANDBOX (ПЕСОЧНИЦА)

Даже если куплено доменное имя, но, по мнению Google, сайт претерпел серьёзные изменения, особенно в тематике, то его ждет фильтр «Песочница».

«Барахтаться» в «Песочнице» можно от 3 месяцев до 1—2 лет.

Если же хозяин сайта решил поменять тематику сайта, или внес существенные изменения в структуру и подачу материала, кардинально поменял контент, то такому сайту также не избежать «Песочницы» долгое время.

Чем менее популярен запрос, тем меньший коэффициент понижения веса страницы применяется.

Если же запросы высокочастотные, то понижающий коэффициент тем выше, чем популярнее запрос.

Как и с новым сайтом требуется провести внутреннюю оптимизацию сайта, связав страницы тематическими ссылками, заполнить уникальным и полезным материалом.

Выйти из песочницы помогает контекстная реклама в Google, если поисковик видит, что, кликая по рекламе, пользователь получает желаемый ответ на свой вопрос.

Как и с вышеописанным фильтром вылезти из Песочницы помогут положительные отзывы с независимых сайтов, и отзывы в профиле компании, в сервисе «Google Мой бизнес».

Только так можно «внушить» Google, что веб-сайт — качественный, и пришел надолго удовлетворять потребности пользователей.

Также сократят срок пребывания в Песочницы ссылки с высоко ранжируемых сайтов.

Google не индексирует все страницы сайта за один заход. Как утверждают эксперты, Google «просматривает» сайт определенное алгоритмом количество времени, и забирает на индексацию столько страниц, сколько успеет.

Поэтому скорость загрузки страниц сайта существенно влияет на количество индексируемых страниц новому сайту. (А далее время и частота, уделяемое на индексацию сайта, зависит от периодичности и объема добавления новой информации.)

Также не стоит забывать о востребованности информации: чем информация более востребована, тем индексация чаще и дольше.

Когда все страницы сайта проиндексированы, Google анализирует весь сайт на качество и полезность. Не уникальные тексты, картинки, тексты ссылок, и пр. — факторы работают на понижение рейтинга сайта.

Пожалуй, единственным исключением можно считать каталоги и сайты-агрегаторы (это платформы, которые собирают информацию в определенной тематике или нише, и выдает его пользователю). Конечно, если эти агрегаторы закрывают некоторые пользовательские потребности, например, имеют аналитику, или статистические данные, сконцентрированные в одном месте.

3 — ОVER ОPTIMIZATION (ЧРЕЗМЕРНАЯ ОПТИМИЗАЦИЯ)

К этому фильтру нужно быть особенно внимательно начинающим SEO-оптимизаторам, по неопытности думающим, что чем больше ключевых фраз в тексте — тем лучше.

Ещё с древних времен считается, что чем чаще поисковая ключевая фраза будет записана в тексте, на странице, тем лучше.

Начинающие копирайтеры и оптимизаторы еще до сих пор пишут примерно так:

«Наши пластиковые окна самые лучшие из всех пластиковых окон, которые продаются на рынке пластиковых окон у нас в городе. Покупайте у нас пластиковые окна, и убедитесь, что мы лучшие поставщики пластиковых окон, потому что наши пластиковые окна будут служить дольше, чем любые другие пластиковые окна, купленные в нашем городе.»

Google видит, что такие тексты не естественные, и такой текст не понравится пользователям, а значит не вызовет доверия, а значит у такого продавца никто не станет покупать. А значит, зачем такого продавца показывать на вершине рейтинга? Пусть уж такая веб-страница идет в довесок, после всех нормальных страниц!

Зачем показывать первым такой сайт, если есть сайты, написанные более человеку понятному языком. Естественно, такой текст Google считает не качественным и не авторитетным.

Как и везде при написании текстов нужна мера.

Поисковиками, были просмотрены миллионы сайтов. Было определено, что нормальное количество поисковых ключевых фраз в качественном тексте составляет 3—5% от общего количества слов на страницы. Тексты в тегах, в заголовке и описании страницы, ALT и TITLE учитываются при расчете.

Это значит, на сто слов текста ключевое слово должно быть распределено по одному разу:

— в заголовке странице,

— в заголовке текста на странице,

— в начале статьи,

— в подписи к картинке,

— и еще, например, в подписи гиперссылки.

А на полноценный лонгрид (не менее 1200 слов или 8000 символов, а это 4,5 листа машинописного текста):

— в заголовке странице,

— в заголовке текста на странице,

— в начале статьи, в пределах 100 печатных знаков,

— в пределах последних 50—75 печатных знака,

— в подписи к картинке,

— равномерно по тексту около 20—25 раз, включая синонимы,

— и еще около 5, в подписи гиперссылки.

Все, что сверх этого количества — пере-оптимизированный текст. С одним ключевым словом — просто, но когда страница оптимизируется под ключевую фразу, состоящую из 2 слов, то повторений ключевой фразы должно быть чуть меньше.

Чем длиннее ключевая фраза, тем меньше должно быть повторений.

Продвинутые эксперты изобрели несколько специальных формул для вычисления количества повторений.

Например, подсчитать количество знаков в ключевой фразе, и сравнить с общим количеством знаков в тексте.

Но убежден, что это уже слишком. Более полезно не сидеть с калькулятором и заниматься подсчетами, а лучше сосредоточиться на красоте естественного звучания текста.

Это же в еще большей степени касается при оптимизации контента под несколько ключевых фраз.

Страницы, отвечающие на несколько вопросов пользователей (оптимизированных под несколько ключевых фраз) имеют больший вес в Google. Поэтому не стоит заморачиваться подсчетами, а лучше сосредоточиться на большем охвате возможных ответов на вопросы пользователей, и более полном ответе на них.

Google не раскрывает, по каким правилам поисковик определяет этот злополучный процент. Уверен, что это и не к чему. Алгоритмы машинные пытаются определить, насколько текст естественен. Копирайтер же сам естественен, и интуитивно понимает какой текст естественный.

Алгоритмы все время усовершенствуются в определении красивого звучания, и более точно определяют. Поэтому, не стоит подстраиваться под алгоритмы, в конечном итоге алгоритмы подстроятся под ваш грамотно написанный текст.

Также не известно при таком подсчете Google учитывает или нет стоп, или шумовые слова. Поэтому лучше не заморачиваться на подсчетах, чтобы подогнать результат, а писать простым, человеческим языком, уделяя тому, чтобы статья была интересна, легко читаемая и полезная.

Лучшего результата можно добиться, как должна быть оптимизирована страница, и какие LSI фразы следует использовать — посмотреть ТОП 5 конкурентов по поисковой выдачи, по этой фразе.

Любителям же математической статистики считать вручную плотность ключей в тексте не нужно, ведь для этого есть масса бесплатных программ в интернете, правда они дают разные результаты, что для любителей считать будет интересно, выводить среднюю арифметическую, геометрическую, или другую величину.

И не забывайте о LSI словах, и других окружающих элементах, которые более важны, чем точно, до сотых долей процента вычислять плотность ключевых слов.

Здесь часто случается так, что в точно выверенной плотности ключевых слов позиция не изменяется, но добавленная одна «плохая» ссылка отбрасывает сайт на десяток позиций вниз.

Поэтому читайте следующий фильтр.

4 — COCITATION LINKING FILTER (ПЛОХОЕ СОСЕДСТВО)

В жизни формируют мнение о человеке не только по внешнему виду, но и по его окружению: по друзьям, и по другим людям, с которыми он постоянно общается.

Также и Google ориентируется на окружение сайта: на какой сайт ведут ссылки с этого сайта, и кто на него ссылается.

Это один из критериев определения авторитетности сайта.

Фильтр CO-citation Linking накладывается на сайт, если ресурс содержит ссылки на:

— низкокачественные сайты, по мнению Google,

— сайты начинающих веб-мастеров,

— сайты с неодобренным содержанием, например, порно сайты,

— спамерские сайты, которые создаются для увеличения рейтинга основного сайта;

— мошеннические сайты, которые под благовидными предлогами выманивают деньги у пользователей;

— фишинг сайты;

— другие вредные, или бесполезные для пользователя сайты;

— сайты с информацией о самодельных взрывных устройствах, наркотиках и т. п.

Поэтому, обращайте внимание не только на сайты своей тематики, но и убедитесь, что на сайт, на который вы ссылаетесь — доброкачественный, и чем он более авторитетный, тем лучше.

Сайт акцептор в этом случае не страдает санкциями от Google.

5 — TOO MANY LINKS AT ONCE FILTER (ССЫЛОЧНЫЙ ВЗРЫВ, СВЕЧКА)

Часто молодые хозяева сайтов любители получить все за один день могут посетить несколько десятков сайтов, на которых что-либо написать, и поставить ссылки на свой сайт.

Горячие оптимизаторы, могут закупить на сайт несколько десятков или даже сотен ссылок, за короткий промежуток времени.

Все это вредно для сайта, особенно молодого, потому что Google считает, что естественным путем так быстро не может расти ссылочная масса. Еще более не правдоподобно для Google, когда в один день, или короткий промежуток времени ссылки добавлялись десятками или сотнями на разных сайтах, а потом наступило затишье.

Исследуя миллионы сайтов в разных отраслях, Google уже определил как быстро и в какой тематике набирается и теряется ссылочная масса.

Основная функция фильтра — фиксирование скорости увеличения или уменьшения ссылок (так называемых волн), приводящих на сайт. Быстрое, а значит не естественное увеличение ссылочной массы, фиксирует фильтр Too Many Links at Once Filter.

Если фильтр замечает волновое увеличение ссылочной массы, то перестает учитывать приводящие на сайт ссылки. По-моему, справедливо отдавать предпочтение сайтам, которые работают над качеством контента, а не сайтам, которые гонятся за наращивание ссылочной массы.

Искусственно наращивать ссылочную массу очень быстрый и дорогой вид продвижения, который отслеживает этот фильтр, и борется с нечестностью.

Борьба с покупными ссылками приоритетное направление у всех поисковиков, поэтому часто значительно проседают сайты, у которых основной вид продвижения — покупные ссылки.

Наращивание ссылочной массы таким путем имеет и оборотную сторону. Если средства у владельца сайта заканчиваются, или по какой-либо другой причине, он не в состояния больше оплачивать дорогие ссылки, то это также хороший сигнал для Too Many Links at Once Filter, чтобы пессимизировать сайт.

Также нужно медленно и отказываться от покупных ссылок, чтобы этот процесс выглядел как бы естественным. Быстрое снижение ссылочной массы также отрицательно влияет на рейтинг сайта.

Для Google в первые месяцы нового сайта естественным приростом внешних ссылок не должно превышать количества уникальных и качественных страниц на сайте.

В дальнейшем естественный прирост ссылочной массы не может превышать 10%.

Это значит, что, если на сайте 20 страниц за первые месяцы его существования максимально может появиться 15—20 ссылок с других сайтов. А далее по 1—2 ссылки в месяц. Причем в 20 страниц не входят страницы «Контактов», «О нас», «Наши сертификаты», «Партнеры» и подобные.

Google считает, что вышеперечисленные страницы нужны и поднимают авторитет сайту, но ссылки на такие страницы не имеют веса. Кроме этого не имеют веса коммерческие, спонсорские и подобные ссылки, ведущие в интернет магазин, или другую продажу.

Количество ссылок, ведущих на сайт при естественном приросте, не может быть скачкообразным волновым. Естественно увеличение или уменьшение количества ссылок не может быть равномерной: в один период их будет чуть больше, в другой — чуть меньше. Поэтому Google рассчитывает среднестатистическую погрешность, даже авторитетных и крупных сайтов.

Фильтр Too Many Links at Once Filter постоянно совершенствуется, всё лучше и лучше учится находить покупные ссылки, и уже делает их бесполезными, они не получают вес.

А для перестраховки (но не наказания) отключает вес даже тех ссылок, которые были получены естественным путем.

Фильтр проводит пессимизацию не только при не естественном приросте, но и при неестественном уменьшении.

Фильтр «Ссылочный взрыв» прекрасно понимает, что резкое уменьшение ссылок происходит, когда было закуплено много ссылок, но у хозяина сайта произошло ограничение бюджета, и он перестает закупать ссылки.

Вывести сайта из-под этого фильтра — наиболее сложная задача, чем вывод из-под других фильтров.

6 — BOMBING (БОМБАРДИРОВКА)

Если на сайт ведет много внешних ссылок с одинаковыми ALT и / или TITLE, и / или одинаковым текстом описания ссылки, то фильтр Bombing не учитывает эти ссылки, и не добавляет вес страницы. Из-за этого вес страницы может, обнуляются. Даже если несколько друзей решило сделать вам подарок, и проставили одну и ту же ссылку на вашу страницу со своих сайтов.

Google считает такие ссылки не естественными, и пессимизирует только те страницы, на которые ведут эти внешние ссылки. Поисковик понимает, что такие ссылки получаются при бездумном или автоматическом добавлении, а значит и не могут быть естественными.

Даже если автор вручную копирует и вставляет ссылку на разных сайтах, то это не меняет отношение Google. Для поисковика каждая ссылка должна быть уникальная, продуманная и быть связующим звено материала на сайте донора и акцептора.

Повторюсь, что поисковики желают видеть уникальный текст и помогать решить определенную задачу. Ссылка же должна вести на уточнение, на расширение понятия, описываемого в тексте. Поэтому и все атрибуты ссылки должны быть уникальными. Только тогда они имеют ценность для пользователя.

Как вы уже знаете, не Google, и ни какой другой поисковик придумал эти правила, а потребители контента так рассуждают, а поисковые системы формализовали этот факт в виде фильтра.

Удаление не качественных ссылок возвращает веб-страницы на прежние позиции в результатах поиска. Но это требуется делать разумно, планомерно и не спеша.

Быстрое же удаление ссылок приводит в действие другой фильтр — Too Many Links at Once Filter, который в этой книге расположен перед этим фильтром.

7 — BROKEN LINKS (БИТЫЕ ССЫЛКИ)

Этот фильтр — один из многих, который определяет качество сайта.

Любой развивающийся сайт, со временем претерпевает некоторые изменения. Некоторые страницы добавляются, некоторые изменяются, удаляются или переносятся. Страницы же сайта, как правило, связаны ссылками, и при переносе или удалении даже одной страницы случается так, что несколько или несколько десятков страниц сайта имеют ссылки на удаленную, или перемещенную страницу.

Поэтому получается, что несколько ссылок ведут на несуществующую страницу.

Бывает и так, что при создании сайта недодумано, могут генерироваться страницы с ошибкой 404.

Самый простой и распространенный пример. Программист устанавливает календарь событий компании, на котором пользователь может выбрать любую дату, месяц и год, чтобы посмотреть новость компании этого дня.

Но забывает закрыть доступ к тем датам, когда компания ещё и не существовала. Так пользователь может открыть любой год, например, 1001, или 11, и естественно получить страницу с ошибкой 404.

Разумному человеку вряд ли придет в голову посмотреть события компании в начале первого тысячелетия, но алгоритм, без эмоций выполняет свою работу.

У поисковика алгоритм — обойти все ссылки. Робот и обходит все, а для нашего примера это

2022 х 365 +505= 738 535 не рабочих ссылок, которые ведут на несуществующие страницы.

Ссылка, которая ведет на несуществующую страницу, называют битой. Обычно пользователю в этом случае выдается страница с кодом ошибки 404.

Ошибка 404 или Not Found («не найдено») — стандартный код ответа HTTP о том, запрашиваемая страница не найдена. (Ошибку 404 не следует путать с ошибкой «Сервер не найден» или иными ошибками, указывающими на ограничение доступа к серверу.)

Если сайт с таким календарем имеет несколько десятков страниц, то не сложно подсчитать отношение «хороших» и «плохих» страниц, а это хороший прирост к отрицательному определению качества сайта.

Кроме этого робот-паук должен обойти все страницы сайта, и если он «застрянет» на таком календаре, то хорошие страницы будут еще долго не индексированы.

Другая распространенная причина получения битых ссылок — перенос материала из одной категории в другую. Этим обычно страдают интернет-магазины.

Если битых ссылок на сайте много (величина или процент, который определяет, что битых ссылок много — коммерческая тайна Google), то Google считает этот сайт низкого качества, а поэтому его не стоит показывать пользователям, и пессимизирует его.

Перед запуском сайта нужно убедиться, что на веб-страницах нет битых ссылок, т.е. ссылок, которые никуда не ведут.

8 — LINKS (ОБМЕН ССЫЛКАМИ)

Ранее среди веб-мастеров и хозяев сайтов было модно обмениваться ссылками, т.е. размещать ссылки на своем сайте на другой сайт, а тот в сою очередь делает то же самое.

Поисковики такой вариант увеличения ссылочной массы считают искусственным, и перестали учитывать такие ссылки. Если обмен ссылками был с большим количеством сайтов, то можно дополнительно получить наказание в виде понижения в рейтинге выдачи.

Links — применяется также к сайтам, содержащим страницы обмена ссылок с другими ресурсами. Такие страницы обычно называют полезными страницами, что на первый взгляд кажется правильным.

Но представьте такой вариант. У меня туристическая фирма, и я продаю путевки в разные страны и города. Для удобства пользователя на сайте создаю страницы для каждого курорта, где прописываю полезную информацию по этому месту отдыха. Например, даю ссылки на сайты: где заказать машину, экскурсовода, музеи, места, где вкусно готовят, и многое еще чего, что может пригодиться в незнакомой местности. В ответ, в качестве благодарности, все эти сайты делают ссылки на мой сайт.

Вся предоставляемая мной информация — полезна пользователям? Безусловно! Но поисковики считают такие страницы спамными. Кроме этого, чтобы не попасть под этот фильтр, если ссылка ведет на прайс-лист, или другое финансовое предложение, то Google разработал специальные атрибуты для гиперссылки, который указывает, что это коммерческая или спонсорская ссылка. Ссылки с такими атрибутами не учитываются, поэтому не учитываются и не могут навредить сайты. Их и требуется устанавливать в таких случаях.

Противоречиво, не справедливо, но это — объективная реальность на данный момент.

Под этот фильтр попадает обмен ссылками с доморощенными каталогами, которые предлагают за установку баннера их каталога размещать у себя ссылки на сайт.

Теперь если же на одной страницы сайта появляется 4 или более ссылок на сайты «партнеров», то велика вероятность попасть под пессимизацию фильтра Links.

Но если вы пишете хорошую статью, и в статье ссылаетесь на выводы нескольких авторитетных сайтов, то в этом случае сайт не попадает под этот фильтр, а наоборот — увеличивает свой вес.

Google считает, что одним из признаков авторитетности статьи — ссылки на первоисточники. В этом случае, если на странице 4 и более ссылок на авторитетные издания, то Google добавляет вес к авторитету сайта. Такой шаг Google считает, что ссылка помогает углубить изучение вопроса, в котором заинтересован пользователь.

Подчеркну, что Google не учитывает обмен ссылками. Лучше сослаться на авторитетный сайт самому, чем искать, с кем можно обменяться ссылками.

9 — PAGE LOAD TIME (ВРЕМЯ ЗАГРУЗКИ СТРАНИЦЫ)

Фильтр Page load time проверяет, как быстро загружается сайт на различных гаджетах.

Если сайт долго загружается, то есть вероятность, что пользователь не дождется окончательной загрузки, то для этого фильтра — это сигнал, чтобы понизить рейтинг сайта на таком устройстве.

В самом деле, зачем пользователю показывать сайт, который на его устройстве будет грузиться долго, в то время как сотни подобных сайтов загружаются быстро. Особо щепетильно Google относится к загрузке страниц сайтов на мобильные устройства.

Каждый разработчик после того как собрал сайт, если желает, чтобы сайт высоко позиционировался в Google проверит скорость загрузки своего творения на тестирующие Google — PageSpeed Insights, чтобы убедиться, что скорость загрузки его шедевра удовлетворяет требованиям поисковика. Если же скорость загрузки низкая, то требуется выполнить там же предлагаемые рекомендации.

Заметьте, что Google никого и ничего не заставляет делать, он принимает всех, только выстраивает в рейтинге как считает нужным. Но Google дает рекомендации, которые не сам придумывает, чтобы усложнить жизнь разработчикам.

Его рекомендации — это плод его исследований, и собираемой статистики. Google бесплатно делится ими, чтобы помочь нам сделать свой веб-проект как можно более полезным конечному потребителю.

Но вернёмся к скорости загрузки веб-сайта.

Кроме медленной скорости работы сервера (что сейчас редко встречается), может быть очень большой объем загружаемой информации.

Это может быть километровые CSS файлы, скрипты, которые лучше подгружать позже, или скрипты в основном несущие только дизайнерскую «красоту» и эффекты, а также огромные картинки, которые в своем объеме практически не нужны. На все, что может снизить время загрузки, на исследуемом сайте Google сразу же указывает в своих рекомендациях, поэтому разработчик сайта обязан устранить все указанные недочеты…

Но скудные знания многих «программистов», тех, которые разрабатывают сайты на известных системах управления сайтами, не позволяют сделать это… А скорость загрузки сайта — один из приоритетных факторов при ранжировании сайтов.

Здесь и большая вина заказчиков сайтов. Они, как правило, желают по максимумы получить навороченный сайт. Но все навороты сводятся к усложнению дизайна: всякие всплывающие, динамические элементы, большие графические вставки существенно увеличивают время загрузки веб-страницы.

Возможно, провести сравнение крысы и белки. Белка — тюнингованная крыса, а заказчик желает получить белку, на которой дополнительно надеты наряды.

Google еще не понимает, хорош или плох дизайн, пользователю приятнее смотреть на белку. Поэтому мастерство разработчика сайта должно найти золотую средину между белкой и крысой.

Ведь, если пользователь пытается просмотреть сайт на своем мобильном устройстве, при оплате за трафик, для него тяжелые сайты — расточительны, поэтому тяжелая версия сайтов в Google считается недопустима. Так Google заботится о своих пользователях.

Если скорость загрузки страницы сайта больше 2—3 сек., то сайт может иметь существенную пессимизацию.

Здесь действует принцип — чем быстрее открывается веб-страница, тем лучше. Статистика показывает, что пользователи не готовы ждать открытия страницы более 2—3 сек. Пользователи смартфонов ещё более не терпеливы.

10 — OMITTED RESULTS (УПУЩЕННЫЕ РЕЗУЛЬТАТЫ)

Если на сайте:

— много дублей страниц;

— мало уникального контента;

— много похожих фрагментов на разных страницах;

— мало ссылок на другие страницы сайта;

— нет внешних ссылок на авторитетные сайты;

То велика вероятность попасть под Фильтр Omitted results.

Честно говоря, мне не нравится стандартный оборот: «попасть под фильтр», мне кажется, что слово «выбраковывается» более точно подходит.

Дубли страниц часто возникают в системах управления сайтом (СМС), когда добраться до одного материала можно несколькими способами.

Например, до статьи можно добраться через раздел «Последние статьи», и через раздел, к которому приписана эта же статья. В интернет-магазинах один товар можно открыть в нескольких категория. И в каждом случае прописываются разные адреса одной веб-страницы.

Более подробно о дублях страниц, и как их избегать будет рассказано в другой части книги.

Малое количество уникального контента, т.е. основная часть текстов скопирована с других сайтов. Здесь не имеет значение, копирован текст с одного сайта, или была солянка фрагментов с разных сайтов.

Много похожих фрагментов на разных страницах, когда на веб-странице вместо гиперссылки на другую страницу сайта дублируется текст. Это распространено в интернет-магазинах, когда схожие товары имеют одно описание.

Этим грешат и компании, у которых несколько филиалов. Чтобы набрать больше страниц, они для каждого филиала создают отдельные страницы с длинными, или не очень длинными текстами. И вся разница в том, что в текстах меняется только адреса, телефоны, да время работы.

Так же плохо, когда дублируется текст на нескольких страницах.

Не желательно копировать фрагменты текстов с разных источников, которые в этом случае идут в минус. Для этого нужно пользоваться тегами цитаты.

Для Google хороший сигнал качества, когда в тексте он видит тег <blockquote> для длинных фрагментов текста, и тег <q> для коротких цитат, с указанием первоисточника.

Google считает, что пользователям удобнее прослеживать одну мысль от начала до конца на одной странице. Если же требуется расширить изложение в подтверждении фактов, или развить тему с уводом излагаемого в сторону, то нужно делать гиперссылку на все разъяснения и отклонения. Не желательно валить всё в одну кучу, у себя на веб-странице.

Например, в биографии знаменитости, в описании, где учился, может быть достаточно, указать только название университета со ссылкой на описание истории этого университета, а не валить все в кучу.

Так пользователь быстро получает ответ на свой вопрос, а дополнительные разъяснения — это ответ на другой вопрос, а значит должна быть и другая страница.

Или другой пример. На запрос пользователя: «Где учился Лермонтов» пользователь вероятнее всего хочет получить информацию о наиболее значимом учебном заведении поэта.

В большинстве случаев пользователю будет достаточно написать «Московский государственный университет имени М. В. Ломоносова». Но для расширения ответа перечислить другие места его образования, поставить внешние ссылки на действующие сайты, и сделать внутренние ссылки на страницы описания учебных заведений, которых уже нет.

Чем больше в тексте гиперссылок на авторитетные сайты, тем больше сигналов для Google, что контент — качественный.

Если в статье излагается полезная информация — факты, то наилучшим подтверждением справедливости написанного текста будет ссылка на авторитетный сайт, который подтверждает это, чем самому дублировать качественный контент.

Например, то, что Колумб родился в Австралии, возможно можно найти на каком-нибудь сайте с нулевым авторитетом. Google считает, что такой «факт» не заслуживает доверия. Но если в статье написано, что Генуя, Италия — место рождения Колумба, и море авторитетных сайтов утверждают это, то ссылка на один из таких сайтов увеличит рейтинг веб-страницы.

Какому заключению вы доверите больше: заключению бабушки, студенту, или практикующему специалисту?

Google как обычный человек доверяет тому больше, у кого выше авторитет.

Действие этого фильтра можно увидеть, если сайт отсутствует в результатах основного поиска, но виден в расширенном поиске.

11 — ФИЛЬТР — 30

Фильтр — 30 накладывается на сайты за черные методы продвижения.

К ним относится: скрытый редирект, клоакинг, дорвеи, тексты, написанные цветом фона, и многие другие устаревшие уловки. Об этом более подробно написано выше, в этой главе.

Под этот фильтр попадают любые действия для повышения рейтинга, без повышения ценности страницы утверждает Google.

«Обратите внимание, что согласно нашему определению, все типы действий, предназначенных для повышения рейтинга (релевантности, важности или того и другого), без повышения истинной ценности страницы, считаются спамом».

(Таксономия веб-спама от Zoltán Gyöngyi & Гектор Гарсия-Молина)

Если не делать имитацию полезности, тем самым не нарушать правила, то этот фильтр не страшен.

12 — ADDITIONAL RESULTS (ДОПОЛНИТЕЛЬНЫЕ РЕЗУЛЬТАТЫ)

Этот фильтр Google пессимизирует страницы сайта, если считает их незначимыми для пользователя.

Значимость текста, как писал ранее — это в основном объемное и уникальное содержание с наличием LSI факторов.

В результатах выдачи страницы, которые Google посчитал не значительными ранжируются ниже, чем значимые, по мнению робота.

Самый распространенный метод поднятия рейтинга таких страниц добавить — входящих ссылок, с авторитетных сайтов. Но не забывайте, что ссылка с авторитетного сайта — это не гарантия увеличения ссылочной массы. Гарантией будет то, что люди переходят по этой ссылки, и получают ожидаемую пользу.

Но представьте, что на авторитетном сайте стоит ссылка в статье, которая утверждает, что на странице Васи Пупкина об этом рассказано более подробно. Google в этой ситуации верит людям, которые голосуют (кликают), или не голосуют (не кликают) за авторитетность этой ссылки.

13 — PAGE LAYOUT ALGORITHM (КОЛИЧЕСТВО РЕКЛАМЫ)

Алгоритм, который определяет общее количество размещенной рекламы на сайте, и при её избыточности понижает рейтинг всего сайта.

Google заметил, что если рекламы раздражительно много на сайте, то люди покидают такие сайты даже с хорошим содержанием, не дочитывая тексты до конца.

Особенно этот фильтр отрицательно реагирует на рекламу, расположенную в верхней части страниц, которая по большей степени закрывает весь первый экран.

Google считает, что, открывая страницу сайта, пользователь сразу же хочет увидеть ответ на свой вопрос, заданный поисковику, а не рекламу.

Убийственно для пользователей открыть страницу с, казалось бы, ответом на свой вопрос, и увидеть, что весь первый экран забит рекламой, и требуется пользоваться полосой прокрутки, чтобы добраться до цели посещения этой страницы.

Пользователям проще считать, что Google тупит, не выдает качественные сайты, и перейти на другой результат поиска. Посетители отказываются искать ответ между рекламными площадками, им проще открыть другой сайт.

Ни для кого не секрет, что многие сайты создаются только для зарабатывания денег на рекламе, Google способствует этому, создав AdSense. Но считает, что для посетителя первична полезная информация, за которой пришел пользователь, а потом реклама, но обязательно по теме веб-страницы, на которой она стоит. Реклама должна быть как дополнительное расширения, как пояснение на его интересующую тему.

Например, человек зашел посмотреть как по симптомам, им указанным, лечить своего питомца. Пользователю не будет интересна реклама ремонта телефонов, или продажа женских сумочек. Но пользователя может заинтересовать реклама ветеринарной клиники.

У последней рекламы будет и больший отклик, и сам сайт пользователю покажется более полезным, что в конечном итоге оценит Google.

Так Google защищает пользователей от избыточной и не целевой рекламы.

14 — PIRATE ALGORITHM (ПИРАТСТВО)

Как уже говорилось не раз, Google отрицательно относится к копированию статей с других сайтов, он также отрицательно относится и к рерайту. По её мнению пользователям полезна только авторитетная и уникальная информация.

Можно даже уже видеть заявления, в котором говорится, что Google определяет, когда в тексте были переставлены, слова, слова заменены синонимами, и другие косметические изменения в тексте.

Кроме этого, Google прямо пишет в своем руководстве, что он распознает переведенные тексты с других языков, с использованием translate.google.com, и литературно не обработанный. И такой текст так же воспринимает как рерайт.

Не уверен, что по поводу синонимов, перестановки слов и переводов уже работает на все 100%, но уверен, что Google идет в этом направлении, и точность определения рерайта будет высочайшей, а поэтому не стоит пытаться зарабатывать дивиденды на чужом труде, даже если это ещё не полностью работает.

Более жестко Google относится, когда авторский текст, без изменения воруется с сайта, и перепечатывается на другом.

Google понимает, что на молодом сайте может появиться полезная статья, но быть проиндексированной на этом сайте позже, чем на другом, который уже приобрёл некоторый авторитет.

Если в этой ситуации применять правило: «Кто первый встал того и тапки», то значит, что поисковик поощряет пиратство, и молодым и перспективным сайтам никогда не пробиться в лидеры. Google же заинтересован, чтобы постоянно «вливалась новая кровь», чтобы поиск становился всё лучше и полезнее.

Фильтр Pirate Algorithm пессимизирует сайты, которые нарушают авторские права.

Google предлагает заявлять на контент свои авторские права через Google+, первоначально публикуя материал там. Но закрытие этой сети для физических лиц для многих авторов усложняет задачу закрепления авторских прав.

Остается один вариант — размещать статьи в социальных сетях, в надежде, что Google её там проиндексирует быстрее, чем на сайте конкурентов.

У Яндекса есть специальная форма для закрепления авторских прав.

У Google остается пока только одна форма, через которую правообладатель может подать жалобу. Но, как понимаете, подать жалобу и получить ответ, и получить положительный результат — это разные вещи.

Как говорится — обещать жениться и жениться — разные вещи.

15 — GLUING (СКЛЕИВАНИЕ)

Google отслеживает не только авторский текст, но следит и за тем, что написано в анкорах (тексты ссылок, которые располагается между открывающимся тегом <a> и закрывающим тегом </a>), а так же к подписям к изображениям и видео.

Обычно рассылается ссылка с анкором в разные источники: своим «партнерам», друзьям или подготавливается автоматическая, или ручная рассылка по разным каталогам.

Фильтр Gluing обладает алгоритмами определяющего, как ссылка ставилась осмысленно или просто размножалась.

Сайты же акцепторы на которых плодятся бездомные ссылки сами по себе выпадают из первых строк или страниц поиска.

Кроме этого фильтр Gluing не любит «безжизненные» анкоры-фразы типа «Смотри здесь», «Перейдите по ссылки» и пр.

Если просите друга поместить ссылку на страницу своего сайта, то используйте ключевые или LSI фразы, которые передают смысл, как бы ответ на вопрос, который мог бы заинтересовать пользователя.

16 — LINK WASHER (ЛИНКОПОМОЙКА)

Под действием этого фильтра оказываются сайты, на страницах которых содержится чрезмерное количество исходящих ссылок на посторонние ресурсы.

Вероятность, что к сайту будут применены санкции, резко возрастает, если на страницах имеется свыше 20 внешних ссылок. Google считает, что никакая, даже научная статья не может ссылаться на 20 и более авторитетных изданий.

Фильтр «Линкопомойка» может быть применён к отдельным страницам. Если таких страниц несколько, так понижению рейтинга может быть подвержен и весь сайт в целом. Это зависит от степени заспамлености.

Правильнее говорить, что не поисковик наказывает, а поисковик освобождает место для более достойных сайтов.

Google понимает, что не за все нарушения нужно безапелляционно наказывать сайты, и если хозяева сайтов удаляют не тематические ссылки, то после последующей индексации сайт переносится на соответствующее место в результатах органического поиска.

Для того, чтобы не попасть или выйти из-под этого фильтра:

1. Проведите технический аудит, составьте полный список ссылок, исходящих со страниц на посторонние и малозначимые ресурсы. Помните, что, ссылаясь не по теме и / или на неавторитетный ресурс, одним этим происходит снижение веса страницы.

2. Составьте список ссылок, имеющих наименьшую значимость для пользователей и поисковой системы.

3. Удалите наименее значимые ссылки так, чтобы на каждой странице осталось не более 5—7 внешних ссылок, при условии, что текст статьи не менее 8—10 тыс. печатных знака.

После того, как источник проблемы устранён, сайт после очередной переиндексации будет освобожден от фильтра в течение периода от 2 недель до 2 месяцев, в зависимости от того, как Google считает нужным повторно переиндексировать ваш сайт.

Частота же посещения сайта для переиндексации зависит от частоты обновления сайта и его авторитета. Если обновления сайта не происходит долгое время, то и поисковик заходит на сайт редко.

Если же сайт обновляется ежедневно, а пользователи подолгу изучают контент, то переиндексация сайта может происходить ежедневно.

Популярные же новостные каналы могут посещаться поисковиком по несколько раз в сутки, и индексировать все страницы.

17 — SOCIATING (СОЦИТИРОВАНИЕ)

Как говорилось не раз, Google отслеживает, чтобы ссылки были качественными.

Под качественными ссылками следует понимать, что сайты из одной тематики, рассматривают одни и те же вопросы, а ссылка — это некоторое расширение ответа на возможный вопрос пользователя.

Например, ссылка получает дополнительный вес, если в статье рассказывается об установки пластиковых окнах, а ссылка отправляет пользователя на сайт производителя этих окон, на статью, в которой рассказывается, из какого пластика изготовляются эти окна. Если сайт производителя окон авторитетный, то статья установщиков получает дополнительный вес. Если сайт не имеет авторитета, и мнимого производителя, то такая ссылка бессмысленна.

Плохой вариант ссылки, которая попадает под Фильтр Sociating, например такой.

Интернет-магазин бытовой техники ссылается на сайт местного, хоть и авторитетного поэта.

Вес таких ссылок не учитывается напрямую, но Google видит нарушение или неправомерное расширение тематики сайта, и понижает рейтинг интернет магазина при тематических запросах.

Хороший вариант сайту бытовой техники ставить ссылки на сайты производителей брендов. Например, в разделе «Зарядки для ноутбуков Asus» поставить ссылку на официальный сайт Asus, на страницу.

И не просто на главную страницу сайта, а на страницу, на которой показаны модели ноутбуков. Ссылку (анкор) можно подписать: «Документация зарядок моделей ноутбуков Asus».

18 — BOWLING (БОУЛИНГ, КОЗНИ КОНКУРЕНТОВ)

Особый фильтр — фильтр жалоб. Действие, этого фильтра могут спровоцировать конкуренты.

Например, что вы украли контент с их сайта.

И жалоба будет вполне обоснована, если сайт конкурента пере индексируется чаще чем ваш.

Происходит так. Вы размещаете свою авторскую статью, конкурент её копирует, и размещает на своем сайте. После чего пишет жалобу в Google о том, что вы украли у него статью. Если Google первым проиндексировал копию конкурента, то вы уже точно потеряли статью, а ваш сайт получит пессимизацию.

Чтобы избежать такой ситуации перед публикацией статьи на сайте опубликуйте её часть в нескольких социальных сетях, со ссылкой на продолжение статьи на своем сайте.

Для этого хорошо подходит Дзен.

Но с дзеном — беда. Яндекс воспринимает, как будто оригинал находится на Дзене, и ее высоко позиционирует, а статья на сайте проваливается в результатах поиска.

Для закрепления авторства контента молодому сайту в Google, самым надежным способом, при публикации статьи, дать в Google контекстную рекламу на веб-страницу, на которой размещен этот материал.

Так вы хотя бы по дате публикации сможете доказать своё авторское право.

Другой вариант: написать статью в гостевом блоге, или каталоге, у которого высокая частота переиндексации, и в этой статье поставить ссылку на свою новую статью. Если выбрали правильную, часто индексируемую площадку, то авторское право будет закреплено за вами.

Более рискованно сразу после публикации статьи сразу купить ссылку на эту статью.

Ни один из перечисленных способов не гарантирует на 100% закрепление авторства за вами, но лучше что-то делать, чтобы увеличивать свои шансы.

Другой способ подгадить чужому сайту — писать на него отрицательные отзывы интернет-площадках.

Работают отрицательные отзывы, написанные и на других ресурсах, и величина пессимизации зависит от авторитетности площадки, на которой был написан отзыв.

В этом случае пара отрицательных отзывав не сделают погоды, но успокаивают жалобщика. А вот сотня негативных отзывав может существенно испортить репутацию.

Конкуренты могут писать отрицательные комментарии на вашем сайте, делать посты, не относящиеся к теме сайта, и ещё многое другое.

Мелким компаниям не следует этого бояться, но знать о том, что конкуренты могут повлиять на ваш веб-ресурс подлым образом. Но это нужно знать обязательно, чтобы отслеживать и вовремя пресекать происки конкурентов.

Постоянно надо отслеживать статистику сайта, и немедленно реагировать, обращаясь в поддержку Google.

19 — SUPPLEMENTAL RESULTS (ДОПОЛНИТЕЛЬНЫЕ РЕЗУЛЬТАТЫ)

Робот Google индексирует все, что найдет на сайте, и все данные передает на анализ в фильтр Supplemental results. Этот фильтр разделяет проиндексированные страницы сайта на хорошие и плохие.

Страницы, которые Google считает хорошими, попадают в основной индекс.

Страницы же, которые Google посчитал плохими, попадают в дополнительные результаты.

Страницы сайта, не прошедшие через сито Supplemental results никогда не попадают в органический поиск. Google никогда ранее признанную страницу плохой не меняет своего мнения.

Если плохих страниц на сайте много, то Google считает сайт бесполезным пользователю, и никогда его не показывает. В этой ситуации не стоит пытаться улучшать что-либо. Единственный выход — закрывать сайт, и учитывая ошибки создавать новый.

В дополнительные результаты попадают:

В первую очередь, дубли страниц сайта.

О дублях страниц более подробно читайте в «Дубли или копии страниц на сайте».

Во-вторых, не корректное, или полное игнорирование основных тегов страницы (Title, Description). Если проигнорированы Title, Description и на страницы нет заголовка Н1, то это гарантия того, что сайт попадает под Supplemental results.

В дополнение замечу, что, хотя Google объявил, что перестал учитывать ключевые слова, но стоило нам на одном из сайтов, написать ключевые фразы, чтобы определиться со стратегией, как этот сайт вышел на первую страницу. Повторюсь, добавили только ключевые слова в мета—тег keywords, и всё. Возможно это совпадение, с каким-либо другим событием, или пришло время сойтись звездам. Но не стоит лениться, и поэтому заполняйте все имеющиеся мета-теги. Уж точно — хуже не будет, а плюсы — повысится качество сайта.

В-третьих, не достаточный вес у страницы. Если сайт содержит сотни или тысячи страниц, расположенные на 4-5-6 и т. д. уровнях и к ним добраться с 4-5-6 и т. д. клика, то будьте уварены, что такие страницы попадут в дополнительные результаты, потому что даже хозяин сайта считает их малополезными.

А для поисковика — чем выше уровень размещения статьи, тем он более значимый. Все же материалы ниже третьего уровня, для поиска считаются малозначимыми.

В-четвертых, если страница сайта не имеет обратных ссылок, нет качественного контента, то и такая страница может быть отнесена к дополнительным результатам.

Чем больше страниц сайта в дополнительных результатах, тем ниже авторитетность сайта, и тем ниже рейтинг всего сайта в результатах поисковой выдачи., что отрицательно влияет и на хорошие веб-страницы.

Поисковые роботы Google посещают страницы дополнительного индекса значительно реже, чем уже занесенные в индекс и поиск новых, поэтому лучше избегать попадания под действие фильтра Supplemental results, чем улучшать, или удалять «плохие» страницы, с надеждой, что скоро улучшенные страницы получат больший вес.

Дешевле сразу продумать интуитивно понятную структуру с пунктами меню, которые соответствуют запросам пользователей, чем после попадания в дополнительный индекс пытаться выводить сайт.

Обычному разработчику всё равно за что получать деньги, а вот хозяину сайта придётся платить дважды, если заблаговременно не позаботится о правильной структуре.

20 — POSSUM (ОППОСУМ. ТЕРРИТОРИАЛЬНОЕ РАНЖИРОВАНИЕ)

Представьте распространенную ситуацию, когда в одном бизнес-центре находится 6 юридических контор, которые, судя по их сайтам, оказывают одни и те же услуги.

Если прежде все 6 компаний отображались в локальном поиске, то после введения Оссумума Google может показать в местном поиске только одну, или, возможно, две, юридические конторы вместо всех шести.

Для человека из 6 фирм выбрать одну, лучшую, практически не реально. Человек по природе своей в состоянии выбрать только из двух. Если ему приходится выбирать из трех, то выбор происходит следующим образом. Сначала сравниваются первые два, выбирается лучший, а затем выбранный и следующий. Уж так устроен наш мозг.

Гугл понимая это не совершенство мозга, создал свой искусственный интеллект, в помощь пользователю, оставив 2-е на выбор.

Только увеличив масштаб карты, или выбрав пользовательские фильтры, такие как «Лучшие», другие юридические конторы вновь появятся на прежних высоких местах в местном поисковике.

Но последнее кто будет делать?

В одном из примеров своего исследования MOZ отметил, что бизнес, расположенный слегка удаленно от географического скопления, подскочил с №21 до №10 в результатах локального поиска.

Это примечательно, поскольку в локальном поиске в SEO уже давно наблюдается, что компании, находящиеся за пределами района или города, имеют мало шансов, получить высокий локальный рейтинг по запросам, исходящих из этих районов или городов и содержащих названия этих городов.

В местном SEO было выдвинуто несколько дополнительных теорий о влиянии Опоссума. К ним относится увеличение чувствительности близости поисковика — расположения между физическим местоположением пользователя и предприятиями, которые Google показывает в результатах своих локальных пакетов.

Кроме того, есть мнение, что локальный фильтр Google работает более независимо от их органического фильтра после Опоссума, так как компании получают высокие рейтинги за списки, указывающие на страницы веб-сайтов с низким или «отфильтрованным» органическим рейтингом.

Помните, что Google всегда стремится показать наиболее релевантный веб-сайт конечному пользователю.

Улучшение общего локального SEO (включая полномочия домена, ссылки, контент, точность и распространение ваших ссылок, а также количество ваших собственных обзоров Google) может помочь «убедить» Google, что, если они собираются показывать только один бизнес в вашей категории и районе, он должен быть вашим.

Опоссум предоставляет хорошую возможность провести аудит конкурента, который не отфильтрован этим фильтром, чтобы увидеть, достигли ли они определенных показателей, которые делают их наиболее актуальным ответом Google.

Поскольку одним из триггеров для Опоссума является присутствие нескольких однотипных компаний географически близко расположенных друг от друга (например, кафе, или сувенирные магазины в исторической части города) и в одном месте, вы можете поэкспериментировать с изменением основной категории в Google Мой бизнес. (Сокращенное руководство по «Google Мой бизнес» см. в приложении. А полную версию этого руководства читайте в книге «50 руководств по SEO-оптимизации»).

Например, если ваша текущая основная категория — «Бар», и вы отфильтровываетесь, потому что эта категория также используется более сильным конкурентом около вас, вы можете протестировать переключение на «Пивной бар», если около вас нет ничего подобного.

Имейте в виду, что изменение категорий может привести к значительному снижению ранжирования, существенным колебаниям трафика и должно осуществляться только с четким пониманием потенциальных негативных воздействий и «Рекомендаций по представлению вашего бизнеса в Google».

Если же трафик уже упал до нуля из-за фильтрации, эксперименты могут оказаться единственным действующим средством для поднятия сайта в Google.

Поскольку Опоссум заложил основу для фильтрации списков на основе их общей принадлежности, это ставит под сомнение целесообразность составления списков для врачей и юристов, агентств недвижимости и аналогичных бизнес-моделей.

Учитывая влияние фильтрации, местной индустрии SEO необходимо продолжать изучать риски и преимущества списков, состоящих из нескольких специалистов, в том числе то, как диверсификация категорий Google может повлиять на результаты после Опоссума.

21 — PANDA (ПАНДА. КАЧЕСТВО КОНТЕНТА)

Фильтр Panda — один из самых известных фильтров, который анализирует качество контента. Этот фильтр может влиять на весь сайт, а иногда и на один раздел, такой как новостной блог на сайте.

Панда не склонна влиять только на отдельные страницы сайта. Если у вас есть сайт с хорошим контентом, но на нем есть страницы с небольшими текстами, или есть текст (фрагменты текста), которые дублируется на разных страницах, то фильтр Panda может вызвать проблемы с ранжированием всего сайта, а не только, по мнению фильтра на «плохие» страницы.

Конечно, Google не раскрывает действительные сигналы ранжирования, используемые в своих алгоритмах, потому что не желает, чтобы SEO-специалисты забывали о качестве выдаваемого материала на сайте и занимались играми в ублажения алгоритмов.

Кроме этого, алгоритмы постоянно усовершенствуются, как программистами, так и уже действующим искусственным интеллектом, и может возникнуть ситуация, что идеально оптимизированная статья под один набор алгоритмов через некоторое время окажется не уделом после ввода других, более тонких подстроек, и дополнений других фильтров.

Поэтому для личного определения качества созданного контента Google рекомендует ответить для себя на следующие вопросы. (Это мой вольный перевод с комментариями.)

— Доверили бы вы информации, представленной в этой статье?

— Эта статья написана экспертом или энтузиастом, который хорошо знает эту тему, или она более поверхностна?

— Есть ли на сайте повторяющиеся, перекрывающиеся или избыточные статьи на одинаковые или похожие темы с немного отличающимися вариантами ключевых слов?

— Будет ли доверительно пользователю предоставлять информацию о своей кредитной карте на этом сайте?

— Есть ли в этой статье орфографические, стилистические или ошибки в изложении фактов? Под фактическими ошибками подразумевается ошибки в изложении фактов. Существует в интернете общепризнанное, экспертное мнение, на которое следует опираться: все, что расходится с этими общепринятыми фактами, является ложью.

Например, ложным фактом является сообщение, что Великая Отечественная война началась в 1956году.

— Подходят ли темы к подлинным интересам читателей сайта, или сайт генерирует контент, пытаясь угадать, чтобы занять хорошее место в поисковых системах?

— Предоставляет ли статья оригинальное содержание или информацию, оригинальную отчетность, оригинальное исследование или оригинальный анализ?

Надергав обрывки статей с других сайтов, не стоит надеяться, что таким образом созданная статья получит высокий рейтинг.

— Предоставляет ли информация на странице существенную ценность по сравнению с другими страницами в результатах поиска?

Не поленитесь, прочитайте статьи ваших конкурентов статьи из первой пятерки поиска по ключевой фразе, по которой написана ваша статья, и убедитесь, что вы выдаете информацию более интересно и освещаете другие факты. Считайте, что место, на которое поставил Google вашу статью — это оценка качества, как со стороны поисковика, так и возможного пользовательского интереса.

Не забывайте о поведенческих факторах, которые скорректируют место в поисковой выдачи, в ответах на запросы пользователей.

— Какой контроль качества делается конкурентами, что вам сделать лучше?

— Описывает ли статья все стороны заданного вопроса лучше, чем это сделали конкуренты?

— Будет ли статья увеличивать авторитет всего сайта, и что уже сделано, чтобы сайт стал признанным авторитетом в своей теме?

— Является ли контент массовым производством, или подобный материал распространяется по различным сайтам, чтобы его отдельные страницы получали больший вес?

— Правильно ли отредактирована и отформатирована статья, или она выглядит неаккуратной или поспешной?

— Если бы вы интересовались вопросами, например, связанным со здоровьем, доверили бы вы информации с этого сайта?

— Признаете ли вы этот сайт в качестве авторитетного источника, когда его упоминают по имени?

— Предоставляет ли статья на сайте полное или исчерпывающее описание темы?

— Содержит ли эта статья глубокий анализ или интересную информацию, которая за гранью очевидности?

— Вы хотите добавить эту страницу в закладки, поделиться с другом или порекомендовать её людям интересующихся этой темой?

— Есть ли в этой статье слишком много рекламы, которая отвлекает или мешает основному содержанию?

— Возможно, ли будет увидеть эту статью в печатном журнале, энциклопедии или книге, или цитаты из неё?

— Являются ли статья короткой, несущественной или не имеющей полезной информации?

— Страницы создаются с большой осторожностью и вниманием к деталям, а не с вниманием к восприятию её алгоритмом Panda или другими фильтрами?

— Будут ли пользователи жаловаться, или ругаться при просмотре этой страницы?

— Получит ли пользователь, исчерпывающий ответ на свой вопрос, или ему придется искать уточнения?

Все статьи из первой пятерки положительно отвечают на эти вопросы. Если нет, что сейчас бывает очень редко, то у вас большие шансы стать первым в результатах поиска по этому вопросу. Чтобы быть выше в результатах поиска, нужно иметь более качественный контент. Это обязательное, но не гарантированное условие, потому как учитываются и другие факторы.

Написание алгоритма для оценки качества страницы или сайта является гораздо более сложной задачей, которая не ограничивается одним фильтром.

Надеюсь, что приведенные выше вопросы помогут понять, как Google подходит к оценке качества контента, и на этом основании пытается написать алгоритмы, которые отличают сайты более высокого качества от сайтов низкого качества.

Задумайтесь, что первостепенная цель Google размещать лучшее в первых ответах поиска, а, чтобы худшее случайно не пробилось вверх — Google сдвигает вниз ответы на запросы пользователей плохие материалы.

К счастью, только разработчики алгоритмов знают, где заканчивается работа одного фильтра, а где начинается работа другого, поэтому не стоит углубляться в названия алгоритмов. Лучше ответить себе на вышеописанные вопросы.

«Panda одно из примерно 500 улучшений поиска, которые мы разместили в этом году. Фактически, с тех пор как мы запустили Panda, мы развернули более десятка дополнительных настроек наших алгоритмов ранжирования, и некоторые SEO-оптимизаторы ошибочно предположили, что изменения в их рейтингах были связаны с Panda. Поиск — это сложное и развивающееся искусство и наука, поэтому вместо того, чтобы фокусироваться на конкретных алгоритмических настройках, мы рекомендуем вам сосредоточиться на предоставлении пользователям наилучшего материала.»

Амит Сингхал, сотрудник Google

А теперь рассмотрим доступные пользователям факторы, которые включены в алгоритм Panda.

МАЛО ТЕКСТА

Страницы считаются слабыми, если описание релевантного запроса на странице содержит не достаточно, мало текста.

Например, набор страниц, описывающих различные болезни, тех, которые часто запрашивают пользователи, но описание содержит по несколько предложений.

Чем более популярен запрос, тем Panda считает, что должно быть более развернутое описание.

Желаете, чтобы ваш сайт, по популярному запросу, был выше конкурентов в выдаче? Анализируйте контент этих конкурентов, и делайте свои описания более качественным.

Глупо надеяться, что Google в ответах на запрос пользователей поставит менее полезный материал выше, чем те, которые уже завоевавших авторитет.

Panda считает контент низкокачественным, поскольку контенту на веб-странице не хватает подробной информации.

Например, страница рассказывает о высокой надежности входной двери в квартиру, но в тексте нет слов, которые описывали бы надежность, таких как материал изготовления, толщина стального листа двери, замки, конструкция, покрытие, уплотнения, и т. д.

Если у конкурента на сайте, в ответе на запрос стоит текст длинной в 10 тысяч печатных знаков (Лонгри́д — букв. «долгое чтение» — формат подачи журналистских материалов в интернете), то никакой текст с несколькими сотнями печатных знаков не будет в ответах на конкретный запрос позиционироваться выше, даже если тысячи страниц ссылается на короткий текст.

Полный список функций, которые выполняет фильтр Panda — это закрытая информация. Кроме этого, не обнародуется специфика действий и других фильтров, поэтому возникают некоторые пересечения в действиях различных фильтров.

Например, об анализе на дубли или копии страниц говорится в нескольких фильтрах, но в открытом доступе нет информации о том, где заканчивается действие одного фильтра, а где начинается действие другого фильтра. Возможно, некоторые фильтры со временем утрачивают свою актуальность, пишутся другие алгоритмы, и включаются в новые фильтры.

Очевиден и тот факт, что созданные фильтры и саморазвивающийся искусственный интеллект — далеко не совершенны, и дают сбои, которые тщательно вуалируются их создателями. Это и понятно, какой производитель будет рассказывать отрицательные стороны своего продукта.

Уверен, что для оптимизации сайта такие тонкости особо не имеют принципиального значения.

Больше того они могут быть и вредны, потому что фильтры — это не стоячая вода, а бурно развивающиеся анализаторы, это наука, которую сейчас принято называть искусственным интеллектом. А как в любой науке есть свои теории, которые не всегда соответствуют истинному положению вещей.

Зачем обременять SEO-специалистов знаниями, которые каждый день изменяются, усовершенствуются? Может получиться, что казалось справедливым вчера, завтра окажется уже устаревшим.

Итак, продолжаем, на что Panda обращает внимание.

ДУБЛИРОВАННЫЙ КОНТЕНТ

Скопированный контент, считается дублированным, если появляется в Интернете более чем в одном месте. Обычно поисковики считают, что оригиналом является тот текст, который ими был проиндексирован раньше.

Проблемы с копиями страниц также могут возникать на собственном веб-сайте, когда есть несколько страниц с одинаковым текстом, практически без изменений.

Например, компания, занимающаяся уборкой помещений в разных городах страны, может создать 10 страниц, по одной для каждого города. Очень здорово с точки зрения геозависимого поиска. Но содержание веб-страниц идентично для всех городов. Отличие страниц только в названии города, интервал времени прибытия для уборки и тарифы.

НИЗКОКАЧЕСТВЕННЫЙ КОНТЕНТ

Если на странице отсутствует подробная информация, разъяснения термина, явления, и подобного, то такие страницы Google считает, не представляют ценности читателю. Опять-таки возвращаемся к сопутствующим словам, которые есть в текстах на уже зарекомендовавших себя сайтах.

Например, если вы описываете номера в своей гостиницы, то для полного понимания, насколько хорош номер, требуется описание всех предметов, которые находятся в номере, чтобы пользователь понимал какой комфорт, ему предлагается.

Или другой пример. Кулинарный рецепт трудно представить без описания, какие продукты туда входят, времени и методики их приготовления. Рецепт будет считаться более полным, если в него добавить калорийность, аллергены, дополнительные фотографии, или видео.

НЕДОСТАТОК АВТОРИТЕТА ДОСТОВЕРНОСТИ

Контент, созданный со ссылками на источники, которые Google не считает авторитетными, не увеличивают вес страницы.

Представители Google неоднократно заявляют в различных изданиях, что сайты, нацеленные на то, чтобы избежать влияния Panda, попадают в черный список, и должны работать, чтобы стать признанными авторитетами в своей теме и отрасли. И не делать попытки обмануть этот фильтр.

Чтобы стать авторитетным сайтом пользователь на этом сайте должен чувствовать себя комфортно, чувствовать надежность и, если требуется предоставлять информацию о себе и своей кредитной карте.

Именно поэтому Google считает, что ссылки на неавторитетные сайты делает и сайт донор не авторитетным.

То же самое, когда не авторитетный сайт ссылается на более авторитетный сайт, то авторитетный сайт делится своим авторитетом, но это уже действие другого фильтра CO-citation Linking Filter.

Более подробно об определения авторитета сайта читайте в книге «5000+ сигналов ранжирования в поисковиках».

БОЛЬШОЕ КОЛИЧЕСТВО НЕКАЧЕСТВЕННЫХ СТРАНИЦ

Здесь под некачественными страницами имеется ввиду, что материал собран с различных не авторитетных сайтов слабо подготовленным копирайтером.

В результате получается большой набор маленьких не авторитетных статей с низкой ценностью для читателей, которые в общей сумме являются понижающим фактором веса всего сайта.

В этом случае Google считает, что страницы создавались, чтобы охватить, как можно больше ключевых фраз с целью получить высокий рейтинг по многим запросам.

Google считает, что если страницу можно показывать по различным пользовательским запросам, то — это качественная страница.

Чем на большее количество вопросов отвечает веб-страница, тем она более качественная, и её нужно выше ранжировать.

НИЗКОКАЧЕСТВЕННЫЙ ПОЛЬЗОВАТЕЛЬСКИЙ КОНТЕНТ (UGC)

UGC (User-generated content или пользователями сгенерированный контент — совращение, введенное Google) — это оригинальный контент, который создается большим количеством наемных авторов, для продвижения какого-либо бренда.

Этим контентом может быть все, что угодно это материал, размещенный на сайте или в социальных сетях для продвижения своего бренда. Часто UGC контент оказывает намного большей эффективностью, чем обычный. Справедливо и обратное, — плохой пользовательский контент оказывает отрицательное влияние на вес страницы.

Основные виды UGC контент.

— Посетители могут оставлять свои сообщения под новостями, статьями, изображениями и т. п.

— Актуальны для интернет-магазинов отзывы, рейтинги. После покупки товара клиент может оставить запись о нем. Более 60% покупателей сначала читают отзывы, а уже потом покупают товар.

— Обзоры. Отзывы, содержащие фото или видео-доказательную базу.

— Контент, появляющийся на конкурсах. Довольно интересен такой пользовательский контент, если вы проводите конкурс фотографий, стихов, произведений и т. п.

— Фотографии и видео. Многие люди желают поделиться фото своего ребенка на детском сайте или видео отчетом о путешествии на туристическом ресурсе.

— Форумы. Посетители сайта общаются друг с другом под надзором модераторов.

Примером низкокачественного пользовательского контента может служить блог, в котором публикуются короткие записи гостевого блога, полные орфографических и грамматических ошибок и не имеющие достоверной информации.

Под фильтр низкокачественного пользовательского контента попадают и покупные отзывы, если, конечно, их «заметила» Panda. Покупными отзывами могут считаться разноплановые отзывы одного человека на работу или продукты в разных регионах. Например, человек в разных фирмах покупает холодильники для домашнего пользования. Или в Омске покупает телевизор, в Новгороде — стиральную машину, а в Подольске — грузоподъемник для склада.

Знаком случай, когда сайт, продаваемый квартиры в новостройке, потерял сильно в рейтинге после публикации нескольких десятков отзывов на одном и том же сайте.

Причем эти отзывы писал человек, который покупал диваны, холодильники, и др. бытовую технику в разных городах России.

МНОГО РЕКЛАМЫ

Очень часто создаются сайты для получения большого трафика, или создания иллюзии большого трафика, а затем набирается большое количество рекламы других сайтов.

Panda без труда определяет рекламные блоки на сайте, насколько они соответствуют тематике сайта. Если алгоритм считает, что рекламы много и вдобавок из другой тематики — вводит понижающий коэффициент рейтингу сайта. Чем больше рекламы на сайте, тем больше уменьшается вес страницы.

Конец ознакомительного фрагмента.

Оглавление

* * *

Приведённый ознакомительный фрагмент книги Поисковые алгоритмы ранжирования сайтов предоставлен нашим книжным партнёром — компанией ЛитРес.

Купить и скачать полную версию книги в форматах FB2, ePub, MOBI, TXT, HTML, RTF и других

Смотрите также

а б в г д е ё ж з и й к л м н о п р с т у ф х ц ч ш щ э ю я