bannerbanner
Поисковые алгоритмы ранжирования сайтов
Поисковые алгоритмы ранжирования сайтов

Полная версия

Поисковые алгоритмы ранжирования сайтов

Настройки чтения
Размер шрифта
Высота строк
Поля
На страницу:
5 из 6

Очевиден и тот факт, что созданные фильтры и саморазвивающийся искусственный интеллект – далеко не совершенны, и дают сбои, которые тщательно вуалируются их создателями. Это и понятно, какой производитель будет рассказывать отрицательные стороны своего продукта.


Уверен, что для оптимизации сайта такие тонкости особо не имеют принципиального значения.


Больше того они могут быть и вредны, потому что фильтры – это не стоячая вода, а бурно развивающиеся анализаторы, это наука, которую сейчас принято называть искусственным интеллектом. А как в любой науке есть свои теории, которые не всегда соответствуют истинному положению вещей.


Зачем обременять SEO-специалистов знаниями, которые каждый день изменяются, усовершенствуются? Может получиться, что казалось справедливым вчера, завтра окажется уже устаревшим.


Итак, продолжаем, на что Panda обращает внимание.

Дублированный контент

Скопированный контент, считается дублированным, если появляется в Интернете более чем в одном месте. Обычно поисковики считают, что оригиналом является тот текст, который ими был проиндексирован раньше.


Проблемы с копиями страниц также могут возникать на собственном веб-сайте, когда есть несколько страниц с одинаковым текстом, практически без изменений.


Например, компания, занимающаяся уборкой помещений в разных городах страны, может создать 10 страниц, по одной для каждого города. Очень здорово с точки зрения геозависимого поиска. Но содержание веб-страниц идентично для всех городов. Отличие страниц только в названии города, интервал времени прибытия для уборки и тарифы.

Низкокачественный контент

Если на странице отсутствует подробная информация, разъяснения термина, явления, и подобного, то такие страницы Google считает, не представляют ценности читателю. Опять-таки возвращаемся к сопутствующим словам, которые есть в текстах на уже зарекомендовавших себя сайтах.


Например, если вы описываете номера в своей гостиницы, то для полного понимания, насколько хорош номер, требуется описание всех предметов, которые находятся в номере, чтобы пользователь понимал какой комфорт, ему предлагается.


Или другой пример. Кулинарный рецепт трудно представить без описания, какие продукты туда входят, времени и методики их приготовления. Рецепт будет считаться более полным, если в него добавить калорийность, аллергены, дополнительные фотографии, или видео.

Недостаток авторитета достоверности

Контент, созданный со ссылками на источники, которые Google не считает авторитетными, не увеличивают вес страницы.


Представители Google неоднократно заявляют в различных изданиях, что сайты, нацеленные на то, чтобы избежать влияния Panda, попадают в черный список, и должны работать, чтобы стать признанными авторитетами в своей теме и отрасли. И не делать попытки обмануть этот фильтр.


Чтобы стать авторитетным сайтом пользователь на этом сайте должен чувствовать себя комфортно, чувствовать надежность и, если требуется предоставлять информацию о себе и своей кредитной карте.


Именно поэтому Google считает, что ссылки на неавторитетные сайты делает и сайт донор не авторитетным.


То же самое, когда не авторитетный сайт ссылается на более авторитетный сайт, то авторитетный сайт делится своим авторитетом, но это уже действие другого фильтра CO-citation Linking Filter.


Более подробно об определения авторитета сайта читайте в книге «5000+ сигналов ранжирования в поисковиках».

Большое количество некачественных страниц

Здесь под некачественными страницами имеется ввиду, что материал собран с различных не авторитетных сайтов слабо подготовленным копирайтером.


В результате получается большой набор маленьких не авторитетных статей с низкой ценностью для читателей, которые в общей сумме являются понижающим фактором веса всего сайта.


В этом случае Google считает, что страницы создавались, чтобы охватить, как можно больше ключевых фраз с целью получить высокий рейтинг по многим запросам.


Google считает, что если страницу можно показывать по различным пользовательским запросам, то – это качественная страница.


Чем на большее количество вопросов отвечает веб-страница, тем она более качественная, и её нужно выше ранжировать.


НИЗКОКАЧЕСТВЕННЫЙ ПОЛЬЗОВАТЕЛЬСКИЙ КОНТЕНТ (UGC)


UGC (User-generated content или пользователями сгенерированный контент – совращение, введенное Google) – это оригинальный контент, который создается большим количеством наемных авторов, для продвижения какого-либо бренда.


Этим контентом может быть все, что угодно это материал, размещенный на сайте или в социальных сетях для продвижения своего бренда. Часто UGC контент оказывает намного большей эффективностью, чем обычный. Справедливо и обратное, – плохой пользовательский контент оказывает отрицательное влияние на вес страницы.


Основные виды UGC контент.


– Посетители могут оставлять свои сообщения под новостями, статьями, изображениями и т. п.


– Актуальны для интернет-магазинов отзывы, рейтинги. После покупки товара клиент может оставить запись о нем. Более 60% покупателей сначала читают отзывы, а уже потом покупают товар.


– Обзоры. Отзывы, содержащие фото или видео-доказательную базу.


– Контент, появляющийся на конкурсах. Довольно интересен такой пользовательский контент, если вы проводите конкурс фотографий, стихов, произведений и т. п.


– Фотографии и видео. Многие люди желают поделиться фото своего ребенка на детском сайте или видео отчетом о путешествии на туристическом ресурсе.


– Форумы. Посетители сайта общаются друг с другом под надзором модераторов.


Примером низкокачественного пользовательского контента может служить блог, в котором публикуются короткие записи гостевого блога, полные орфографических и грамматических ошибок и не имеющие достоверной информации.


Под фильтр низкокачественного пользовательского контента попадают и покупные отзывы, если, конечно, их «заметила» Panda. Покупными отзывами могут считаться разноплановые отзывы одного человека на работу или продукты в разных регионах. Например, человек в разных фирмах покупает холодильники для домашнего пользования. Или в Омске покупает телевизор, в Новгороде – стиральную машину, а в Подольске – грузоподъемник для склада.


Знаком случай, когда сайт, продаваемый квартиры в новостройке, потерял сильно в рейтинге после публикации нескольких десятков отзывов на одном и том же сайте.


Причем эти отзывы писал человек, который покупал диваны, холодильники, и др. бытовую технику в разных городах России.

Много рекламы

Очень часто создаются сайты для получения большого трафика, или создания иллюзии большого трафика, а затем набирается большое количество рекламы других сайтов.


Panda без труда определяет рекламные блоки на сайте, насколько они соответствуют тематике сайта. Если алгоритм считает, что рекламы много и вдобавок из другой тематики – вводит понижающий коэффициент рейтингу сайта. Чем больше рекламы на сайте, тем больше уменьшается вес страницы.


Panda не любит многократные врезки в текст, что отвлекает пользователя от чтения ответа на свой вопрос, и постоянно сбивает его от главной мысли.


Точное процентное соотношение рекламы к тексту – коммерческая тайна Google, но известен принцип – чем меньше, тем лучше.


Да, Google коммерческая организация, которая зарабатывает на рекламе, и можно считать, что любая реклама, не исходящая от Google вредна веб-сайтам с позиции Google.


Впрочем, известны случаи, когда Google наказывал за чрезмерное размещение рекламы от Google AdSense.


Для Google в приоритете, чтобы пользователь, перешедший из его поиска на сайт, получил ответ на вопрос, который задал поисковику, а не кликал по рекламе.

Некачественный контент вокруг партнерских ссылок

Panda относится подозрительно к ссылкам партнерских программ.


Плохими считаются ссылки, которые имеют не точную формулировку, или не соответствие текста ссылки и веб-страницы, куда делается переход. Это чаще всего несоответствие тематик сайта донора и акцептора. Такие ссылки не учитываются.


Отвлеченный текст ссылки от содержания, указывающих на платные партнерские программы, отличный сигнал, для Panda, что ссылка куплена, вес ее не учитывается, а страница получает понижение веса.


Однако по наблюдениям установление партнерской программы Google AdSense в некоторых случаях увеличивает ранг сайта.

Сайты, заблокированные пользователями

Google предложил пользователям Chrome, самостоятельно отфильтровать поисковый спам, установив специальное расширение в обозреватель. Так поисковый гигант предлагает своим пользователям понижать в рейтинге не качественные сайты и контент-фермы (сайты, которые используют для своего наполнения другие сайты интернета).


Мэтт Каттс и Амит Сингхал пишут в официальном блоге Google о том, что делает последнее изменение алгоритма Panda.


«Это обновление предназначено для снижения рейтинга низкокачественных сайтов с низкой информационностью для пользователей, копирования контента с других сайтов, которые просто не очень полезны. В то же время, он обеспечит лучший рейтинг для высококачественных сайтов с оригинальным контентом и информацией, такой как исследования, подробные отчеты, вдумчивый анализ и так далее.»


Поисковик Google ввел функцию в своих результатах поиска и когда вы нажимаете на результат поиска, а затем нажимаете кнопку «назад», чтобы вернуться в Google, вы можете увидеть новую ссылку рядом с кнопкой «кеш», которая позволит вам заблокировать этот домен от дальнейших поисков.


После следующего поиска вы больше не увидите заблокированные сайты, и результаты поиска должны быть немного более высокого качества. Конечно, вы всегда можете разблокировать сайт, прокрутив вниз до результатов поиска и нажав на ссылку, чтобы просмотреть заблокированные сайты.


Это и хорошее дополнение, если нет конкурентной борьбы. Но если у вашего бизнеса в интернете есть серьезные конкуренты, которые могут организовать блокировку вашего сайта с сотни, или более компьютеров, то организация падения рейтинга сайта гарантирована.


И против этой нечестной конкурентной борьбы трудно придумать противоядие.

Содержание не соответствует поисковому запросу

Бывает, что создатель страницы в названии, её описании, а также в заголовке контента, и других тегах и атрибутах как бы продекларировал одни ключевые фразы, а текст написал не относящийся к этим ключевым словам.


Этот фактор отличается от «некачественного контента» тем, что умышленно создаются страницы, которые обещают посетителю невероятную выгоду при переходе на их сайт.

Например, обещание 50% скидки, или купон на приобретение, или др. Когда же человек заходит на страницу это оказывается рекламная страница, или только текст по теме, что обычно приводит к разочарованию посетителя.

22 – Fred (дополнение к фильтру Panda)

Fred – это крупный бонус честным авторам, которые добросовестно дают полезную информацию своим читателям.


Fred пессимизирует сайты, которые нарушают правила для веб-мастеров.


Под действия этого фильтра попадают, прежде всего, новостные сайты и блоги, которые плодят некачественные публикации, размещают много рекламы, а цель таких сайтов получение дохода, но не предоставление полезной информации.


Под действие этого фильтра попадают сайты

· с небольшими статьями, статьи, состоящие из 300 слов (примерно двух тысяч символов),

· с правильными SEO-текстами,

· предельно отшлифованные,

· но лишенные какой-либо полезности.


Полезность можно определить по поведенческому фактору. Если статья открывается, а на её ознакомление уходит времени гораздо меньше, чем требуется среднестатистическому человеку на её прочтение, а затем пользователь возвращается к странице поиска, то это самые веские аргументы, по которым поисковик определяет, что статья низкого качества.


Хуан Гонсалес из Sistrix проанализировал 300 веб-сайтов из Германии, Испании, Великобритании и Соединенных Штатах, в поиске Google, которые сильно потеряли в рейтинге результатов поиска.


Хуан сказал, что

«Почти все ушедшие с первых страниц сайты имели очень много рекламы, особенно баннерной. Многие, из которых были кампаниями AdSense. Еще одна вещь, которую мы часто замечали, заключалась в том, что на этих сайтах содержалось мало контента или он был некачественный, который не имел никакой ценности для читателя».

Этим фильтром Google показал, что он готов предоставлять свою рекламу только сайтам, имеющим полезную информацию для конечного пользователя, и не желает зарабатывать на своей рекламе, размещая на низкопробных сайтах, понижая свой авторитет.

23 – Phantom (продолжает ориентировку на контент)

Phantom разделяет некоторые общие черты с Panda, поскольку он ориентирован на контент.


Пессимизация сайтов, попавших под этот фильтр, происходит по следующим причинам.


– Низкое качество содержания материала на сайте.

– Мало контента на небольшом количестве страниц, на сайте.

– Статьи партнеров сайта.

– Статьи как приманка для перехода на желаемую страницу сайта.

– Много рекламы, забивающий основной материал.

– Всплывающие окна, появляющиеся сразу при открытии, или по прохождении некоторого времени, или при желании покинуть страницу.

– Длинные видео. Оптимальной считается длина видео 3—5 мин.

– На веб-странице трудно ориентироваться пользователю.


Это обновление пессимизирует больше, чем какой-либо другой фильтр сайты с некачественным контентом. Наказываются целые домены только за небольшую часть некачественного контента.


Под фильтр Phantom попадают сайты:


– Большое количество ссылок на другие сайты без использования параметра nofollow. Причем пессимизация происходит не только спам-сайтов, но заслуживших в Google большой авторитет.


– Штрафуются сайты, ссылающиеся друг на друга с использованием точных якорных текстовых ссылок.


– В анкорах употребляются одни и те же тексты. Одинаковые анкоры чаще всего получаются при автоматическом распространении ссылок.


– Сайты, которые под подозрением принадлежат одному хозяину или компании. Например, когда у владельца несколько доменов и когда между сайтами создаются перекрёстные ссылки, используя один и тот же якорный текст в ссылках. Теперь эта, ранее популярная стратегия не работает. Google имеет доступ к whois (см. Фильтр Google Trust Rank), поэтому определить владельца нескольких сайтов – не сложно.


– Много перекрёстных ссылок между двумя сайтами. Вот только, количество много Google не уточняет, так же, как и сам расчёт.


– Заимствование контента. Phantom находит фрагменты текстов, помеченных как цитата, со ссылкой на первоисточник. Если страницы сайта злоупотребляют этим приемом – штрафуются. Этот фильтр пессимизирует и сайты, где большие фрагменты текста сдублированы, но источник не указан.


Заметьте, что теги цитат нужно употреблять только по назначению. Например, тег предназначен для выделения коротких цитат в предложениях.


Тег

предназначен для выделения длинных цитат, которые могут состоять из нескольких абзацев. Если эти теги употреблять не по назначению, без указания источника, а как дизайнерские элементы оформления текста, то это сигнал, что контент некачественный.


– Страницы списка ссылок, которые нужно прокручивать и прокручивать. Наверняка вы видели такие веб-страницы, и не смогли увидеть на них ничего полезного. Это понимает и Phantom.


– Не качественный дизайн сайта. Google не может сказать дизайн сайта хорош, или плох. Даже дизайнеры не могут перечислить критерии, по которым они оценивают качество других сайтов. Но Google провел масштабное исследование и определил критерии, по которым можно определить качество дизайна. К самым простым из них Google считает: мелкий шрифт, контраст шрифта и фона, трудность отличить рекламу от искомого содержания, и многое другое.


– Устаревшие и не относящиеся к теме комментарии. Часто бывает, что статья спустя некоторое время переделывается несколько раз, а устаревшие комментарии остаются. Статьи с такими комментариями Phantom штрафует.


– Оптимизация страниц сайта под известные бренды. Если прежде высоко ранжировались сайты, и получали большой трафик за счет оптимизации по известным брендам, то Phantom теперь лишил этой возможности. Google понимает, что если пользователь вводит название бренда, то он желает попасть именно на сайт бренда.


Выдача в ответах ложных страниц раздражает пользователей, и Google их пессимизирует. Теперь не обязательно писать «официальный сайт…». Теперь, например, маленькому интернет-магазину, продающему китайский Apple по китайским ценам невозможно обойти сайт Apple по запросу «продукция Apple». Справедливо это? Уверен, что честные работяги довольны этому. Ведь ещё встречаются случаи, когда один работает, не поднимая головы, а его трудом пользуются изворотливые дельцы.


– Множество страниц, ведущих на страницу с 404 ошибкой.

Phantom не пессимизирует весь сайт, а санкциям подвергаются отдельные страницы.


Многие считают, что Phantom это самый злостный карающий фильтр, от которого пострадало много сайтов. Однако, не забывайте – страдают одни, те кто тиражирует некачественные материалы, но выигрывают качественные сайты.


Phantom «заставляет» делать более качественные страницы, чтобы страница отвечала на запрос пользователя четко и без воды.


Например, если пользователь в строке поиска набирает «LED монитор» или «Какой LED монитор лучше», то он желает получить ответ на конкретно заданный вопрос. Ему нужно описание, характеристики, поэтому должно быть описание характеристик.

А контента должно быть достаточно, чтобы ответить на этот вопрос.


Если же пользователь набирает «Купить монитор Philips», то ему нужен интернет-магазин, и Google выводит пользователю список интернет-магазинов, в которых человек может приобрести нужный ему монитор. Причем, как помните, вначале выстраивает лучшие предложения, а затем в убывающем порядке.


Если какой-то интернет магазин «провалился» в поиске, то вина в этом не Google.

«На зеркало нечего пенять, коли рожа крива.»

(эпиграф и сюжет комедии Н. В. Гоголя «Ревизор». )

24 – Pirate Update (нарушение авторских прав)

Google Pirate Update – это фильтр, призванный помешать сайтам с большим количеством жалоб о нарушении авторских прав, которые подаются через систему DMCA Google, и которые занимают высокие позиции в ответах на запросы пользователей в Google.


Эти жалобы являются одним из факторов удаления контента из индекса Google. Но любой может написать жалобу. Это ещё не доказательство нарушения авторских прав. Это просто обвинение, и оно может быть оспорено.


Google оценивает каждую жалобу, и, если считает нарушение действительным, контент удаляется из индекса.


Чтобы избегать ложных обвинений в нарушении авторских прав можно каждую статью публиковать в социальных сетях, с размещением ссылки на страницу веб-сайта, где размещён оригинал статьи.


Это конечно не 100% гарантия (хакеры могут взломать правительственные сайты), но практически это хорошая защита, потому что цена защищенности информации намного выше цены взлома.


Если же считаете, ценность своей статьи превышает цену взлома, то у вас 2 пути: либо не размещать в сети, либо закреплять авторские права у нотариуса.


Чтобы не попасть под Google Pirate Update – не воруйте чужие материалы.


Если же разместили чужой контент, и уже попали под этот фильтр, то лучше всего удалит плагиат. Фильтр периодически повторно проверяет веб-сайты. Когда это происходит, ранее попавшие под этот фильтр сайты могут вернуть свои позиции, если сделаны правильные улучшения.

25 – Cassandra

Cassandra был одним из первых фильтров Google, который разрабатывался специально для фильтрации ссылочного спама.


Это были трудные времена для веб-сайтов, которые создавали ссылки с доменов, находящихся в совместном владении, и скрывали ссылки и текст, чтобы манипулировать своим рейтингом.


От Кассандры также сильно пострадали скрытые тексты и скрытые ссылки.


Хотя сейчас ни один серьёзный сеошник не занимается такими глупостями, но некоторые «умники» ещё пытаются таким образом обмануть поисковики.

26 – Penguin (Пингвин. Оценка качества ссылок)

Эта группа алгоритмов занимается определением качества ссылок: спам или нерелевантные ссылки, ссылки с чрезмерно оптимизированным якорным текстом, и др.


Цель Google Penguin максимально поощрять высококачественные веб-сайты и уменьшать присутствие на странице результатов поисковой системы (SERP) веб-сайтов, которые используют схемы манипуляторных ссылок и заполнение их ключевыми словами.


В отличие от фильтра Panda, Пингвин работает в режиме реального времени.


Пингвин создавался для выявления двух определенных факторов.

Первый. Схемы ссылок

Схемы ссылок – это разработка, приобретение или покупка обратных ссылок. Ссылки могут быть с некачественных или с качественных сайтов, но с сайтов другой тематики.


Это создает искусственную картину актуальности и авторитетности сайта, чтобы поисковики устанавливали больший вес сайту, и выше его позиционировали, отодвигая реально хорошие сайты, не имеющие такого большого количества ссылок.


Например, некоторый бухгалтер может на множестве интернет-форумах писать спам-комментарии со ссылками на свой сайт как «самый лучший и надежный бухгалтер в городе», набирая, таким образом, ссылочную массу неестественными ссылками.


Другой вариант, когда этот же бухгалтер может заплатить, чтобы его ссылка «самый лучший и надежный бухгалтер в городе» появилась в статье о красивой и модной одежде.


Третий вариант, когда ссылки покупаются на отличных схожих по теме сайтах, в статьях, в которых рассказывается о хороших бухгалтерах.


Многие веб-мастера воют, что не справедливо понижать рейтинг их сайтов за наращивание ссылочной массы. Они забывают, что ведут не честную игру перед сайтами, над которыми люди действительно трудятся. Покупатели ссылок почему-то считают, что воровать – не хорошо, и вор должен сидеть в тюрьме, и в это же время воруют рейтинг у отличных сайтов.


Любые ссылки, предназначенные для манипулирования PageRank или рейтингом сайта в результатах поиска Google, могут рассматриваться как часть схемы ссылок и нарушением Google Руководства для веб-мастеров.


Сложность работы фильтра Penguin в том, что невозможно доподлинно установить какая ссылка хорошая, а какая – манипуляторная.


Google в своем Руководстве для веб-мастеров определил, что любые ссылки, предназначенные для манипулирования рейтингом сайта в результатах поиска Google, могут рассматриваться, как часть схемы ссылок являются нарушением.


Заметьте, что Google указал фактор, которые он принял, для разработчиков сайтов являются законом в её поисковой системе, нарушая который, веб-мастера подвергают свои творения получить штраф.


Это как правила дорожного движения: должен принять, чтобы выезжать на дорогу, в противном случае – штраф, если поймают. Не согласен с правилами – не выезжай.


Google —предоставляет свои правила, в которых говорит за какие «лихачества» он будет наказывать если поймает.


Ещё не все «нарушения» может отлавливать Google Penguin, но механизм усовершенствования работает. Если верить публичным высказываниям Google разработчиков, то только за 2021 год было создано и доработано более 500 обновлений.


Это ежедневно почти по два обновления вносятся в фильтры ранжирования сайтов. Не забывайте, что искусственный интеллект корректируется, и развивается самостоятельно.

На страницу:
5 из 6