Полная версия
Поисковые алгоритмы ранжирования сайтов
У Яндекса есть специальная форма для закрепления авторских прав.
У Google остается пока только одна форма, через которую правообладатель может подать жалобу. Но, как понимаете, подать жалобу и получить ответ, и получить положительный результат – это разные вещи.
Как говорится – обещать жениться и жениться – разные вещи.
15 – Gluing (Склеивание)
Google отслеживает не только авторский текст, но следит и за тем, что написано в анкорах (тексты ссылок, которые располагается между открывающимся тегом и закрывающим тегом ), а так же к подписям к изображениям и видео.
Обычно рассылается ссылка с анкором в разные источники: своим «партнерам», друзьям или подготавливается автоматическая, или ручная рассылка по разным каталогам.
Фильтр Gluing обладает алгоритмами определяющего, как ссылка ставилась осмысленно или просто размножалась.
Сайты же акцепторы на которых плодятся бездомные ссылки сами по себе выпадают из первых строк или страниц поиска.
Кроме этого фильтр Gluing не любит «безжизненные» анкоры-фразы типа «Смотри здесь», «Перейдите по ссылки» и пр.
Если просите друга поместить ссылку на страницу своего сайта, то используйте ключевые или LSI фразы, которые передают смысл, как бы ответ на вопрос, который мог бы заинтересовать пользователя.
16 – Link Washer (Линкопомойка)
Под действием этого фильтра оказываются сайты, на страницах которых содержится чрезмерное количество исходящих ссылок на посторонние ресурсы.
Вероятность, что к сайту будут применены санкции, резко возрастает, если на страницах имеется свыше 20 внешних ссылок. Google считает, что никакая, даже научная статья не может ссылаться на 20 и более авторитетных изданий.
Фильтр «Линкопомойка» может быть применён к отдельным страницам. Если таких страниц несколько, так понижению рейтинга может быть подвержен и весь сайт в целом. Это зависит от степени заспамлености.
Правильнее говорить, что не поисковик наказывает, а поисковик освобождает место для более достойных сайтов.
Google понимает, что не за все нарушения нужно безапелляционно наказывать сайты, и если хозяева сайтов удаляют не тематические ссылки, то после последующей индексации сайт переносится на соответствующее место в результатах органического поиска.
Для того, чтобы не попасть или выйти из-под этого фильтра:
1. Проведите технический аудит, составьте полный список ссылок, исходящих со страниц на посторонние и малозначимые ресурсы. Помните, что, ссылаясь не по теме и / или на неавторитетный ресурс, одним этим происходит снижение веса страницы.
2. Составьте список ссылок, имеющих наименьшую значимость для пользователей и поисковой системы.
3. Удалите наименее значимые ссылки так, чтобы на каждой странице осталось не более 5—7 внешних ссылок, при условии, что текст статьи не менее 8—10 тыс. печатных знака.
После того, как источник проблемы устранён, сайт после очередной переиндексации будет освобожден от фильтра в течение периода от 2 недель до 2 месяцев, в зависимости от того, как Google считает нужным повторно переиндексировать ваш сайт.
Частота же посещения сайта для переиндексации зависит от частоты обновления сайта и его авторитета. Если обновления сайта не происходит долгое время, то и поисковик заходит на сайт редко.
Если же сайт обновляется ежедневно, а пользователи подолгу изучают контент, то переиндексация сайта может происходить ежедневно.
Популярные же новостные каналы могут посещаться поисковиком по несколько раз в сутки, и индексировать все страницы.
17 – Sociating (Социтирование)
Как говорилось не раз, Google отслеживает, чтобы ссылки были качественными.
Под качественными ссылками следует понимать, что сайты из одной тематики, рассматривают одни и те же вопросы, а ссылка – это некоторое расширение ответа на возможный вопрос пользователя.
Например, ссылка получает дополнительный вес, если в статье рассказывается об установки пластиковых окнах, а ссылка отправляет пользователя на сайт производителя этих окон, на статью, в которой рассказывается, из какого пластика изготовляются эти окна. Если сайт производителя окон авторитетный, то статья установщиков получает дополнительный вес. Если сайт не имеет авторитета, и мнимого производителя, то такая ссылка бессмысленна.
Плохой вариант ссылки, которая попадает под Фильтр Sociating, например такой.
Интернет-магазин бытовой техники ссылается на сайт местного, хоть и авторитетного поэта.
Вес таких ссылок не учитывается напрямую, но Google видит нарушение или неправомерное расширение тематики сайта, и понижает рейтинг интернет магазина при тематических запросах.
Хороший вариант сайту бытовой техники ставить ссылки на сайты производителей брендов. Например, в разделе «Зарядки для ноутбуков Asus» поставить ссылку на официальный сайт Asus, на страницу.
И не просто на главную страницу сайта, а на страницу, на которой показаны модели ноутбуков. Ссылку (анкор) можно подписать: «Документация зарядок моделей ноутбуков Asus».
18 – Bowling (боулинг, козни конкурентов)
Особый фильтр – фильтр жалоб. Действие, этого фильтра могут спровоцировать конкуренты.
Например, что вы украли контент с их сайта.
И жалоба будет вполне обоснована, если сайт конкурента пере индексируется чаще чем ваш.
Происходит так. Вы размещаете свою авторскую статью, конкурент её копирует, и размещает на своем сайте. После чего пишет жалобу в Google о том, что вы украли у него статью. Если Google первым проиндексировал копию конкурента, то вы уже точно потеряли статью, а ваш сайт получит пессимизацию.
Чтобы избежать такой ситуации перед публикацией статьи на сайте опубликуйте её часть в нескольких социальных сетях, со ссылкой на продолжение статьи на своем сайте.
Для этого хорошо подходит Дзен.
Но с дзеном – беда. Яндекс воспринимает, как будто оригинал находится на Дзене, и ее высоко позиционирует, а статья на сайте проваливается в результатах поиска.
Для закрепления авторства контента молодому сайту в Google, самым надежным способом, при публикации статьи, дать в Google контекстную рекламу на веб-страницу, на которой размещен этот материал.
Так вы хотя бы по дате публикации сможете доказать своё авторское право.
Другой вариант: написать статью в гостевом блоге, или каталоге, у которого высокая частота переиндексации, и в этой статье поставить ссылку на свою новую статью. Если выбрали правильную, часто индексируемую площадку, то авторское право будет закреплено за вами.
Более рискованно сразу после публикации статьи сразу купить ссылку на эту статью.
Ни один из перечисленных способов не гарантирует на 100% закрепление авторства за вами, но лучше что-то делать, чтобы увеличивать свои шансы.
Другой способ подгадить чужому сайту – писать на него отрицательные отзывы интернет-площадках.
Работают отрицательные отзывы, написанные и на других ресурсах, и величина пессимизации зависит от авторитетности площадки, на которой был написан отзыв.
В этом случае пара отрицательных отзывав не сделают погоды, но успокаивают жалобщика. А вот сотня негативных отзывав может существенно испортить репутацию.
Конкуренты могут писать отрицательные комментарии на вашем сайте, делать посты, не относящиеся к теме сайта, и ещё многое другое.
Мелким компаниям не следует этого бояться, но знать о том, что конкуренты могут повлиять на ваш веб-ресурс подлым образом. Но это нужно знать обязательно, чтобы отслеживать и вовремя пресекать происки конкурентов.
Постоянно надо отслеживать статистику сайта, и немедленно реагировать, обращаясь в поддержку Google.
19 – Supplemental Results (дополнительные результаты)
Робот Google индексирует все, что найдет на сайте, и все данные передает на анализ в фильтр Supplemental results. Этот фильтр разделяет проиндексированные страницы сайта на хорошие и плохие.
Страницы, которые Google считает хорошими, попадают в основной индекс.
Страницы же, которые Google посчитал плохими, попадают в дополнительные результаты.
Страницы сайта, не прошедшие через сито Supplemental results никогда не попадают в органический поиск. Google никогда ранее признанную страницу плохой не меняет своего мнения.
Если плохих страниц на сайте много, то Google считает сайт бесполезным пользователю, и никогда его не показывает. В этой ситуации не стоит пытаться улучшать что-либо. Единственный выход – закрывать сайт, и учитывая ошибки создавать новый.
В дополнительные результаты попадают:
В первую очередь, дубли страниц сайта.
О дублях страниц более подробно читайте в «Дубли или копии страниц на сайте».
Во-вторых, не корректное, или полное игнорирование основных тегов страницы (Title, Description). Если проигнорированы Title, Description и на страницы нет заголовка Н1, то это гарантия того, что сайт попадает под Supplemental results.
В дополнение замечу, что, хотя Google объявил, что перестал учитывать ключевые слова, но стоило нам на одном из сайтов, написать ключевые фразы, чтобы определиться со стратегией, как этот сайт вышел на первую страницу. Повторюсь, добавили только ключевые слова в мета—тег keywords, и всё. Возможно это совпадение, с каким-либо другим событием, или пришло время сойтись звездам. Но не стоит лениться, и поэтому заполняйте все имеющиеся мета-теги. Уж точно – хуже не будет, а плюсы – повысится качество сайта.
В-третьих, не достаточный вес у страницы. Если сайт содержит сотни или тысячи страниц, расположенные на 4-5-6 и т. д. уровнях и к ним добраться с 4-5-6 и т. д. клика, то будьте уварены, что такие страницы попадут в дополнительные результаты, потому что даже хозяин сайта считает их малополезными.
А для поисковика – чем выше уровень размещения статьи, тем он более значимый. Все же материалы ниже третьего уровня, для поиска считаются малозначимыми.
В-четвертых, если страница сайта не имеет обратных ссылок, нет качественного контента, то и такая страница может быть отнесена к дополнительным результатам.
Чем больше страниц сайта в дополнительных результатах, тем ниже авторитетность сайта, и тем ниже рейтинг всего сайта в результатах поисковой выдачи., что отрицательно влияет и на хорошие веб-страницы.
Поисковые роботы Google посещают страницы дополнительного индекса значительно реже, чем уже занесенные в индекс и поиск новых, поэтому лучше избегать попадания под действие фильтра Supplemental results, чем улучшать, или удалять «плохие» страницы, с надеждой, что скоро улучшенные страницы получат больший вес.
Дешевле сразу продумать интуитивно понятную структуру с пунктами меню, которые соответствуют запросам пользователей, чем после попадания в дополнительный индекс пытаться выводить сайт.
Обычному разработчику всё равно за что получать деньги, а вот хозяину сайта придётся платить дважды, если заблаговременно не позаботится о правильной структуре.
20 – Possum (Оппосум. Территориальное ранжирование)
Представьте распространенную ситуацию, когда в одном бизнес-центре находится 6 юридических контор, которые, судя по их сайтам, оказывают одни и те же услуги.
Если прежде все 6 компаний отображались в локальном поиске, то после введения Оссумума Google может показать в местном поиске только одну, или, возможно, две, юридические конторы вместо всех шести.
Для человека из 6 фирм выбрать одну, лучшую, практически не реально. Человек по природе своей в состоянии выбрать только из двух. Если ему приходится выбирать из трех, то выбор происходит следующим образом. Сначала сравниваются первые два, выбирается лучший, а затем выбранный и следующий. Уж так устроен наш мозг.
Гугл понимая это не совершенство мозга, создал свой искусственный интеллект, в помощь пользователю, оставив 2-е на выбор.
Только увеличив масштаб карты, или выбрав пользовательские фильтры, такие как «Лучшие», другие юридические конторы вновь появятся на прежних высоких местах в местном поисковике.
Но последнее кто будет делать?
В одном из примеров своего исследования MOZ отметил, что бизнес, расположенный слегка удаленно от географического скопления, подскочил с №21 до №10 в результатах локального поиска.
Это примечательно, поскольку в локальном поиске в SEO уже давно наблюдается, что компании, находящиеся за пределами района или города, имеют мало шансов, получить высокий локальный рейтинг по запросам, исходящих из этих районов или городов и содержащих названия этих городов.
В местном SEO было выдвинуто несколько дополнительных теорий о влиянии Опоссума. К ним относится увеличение чувствительности близости поисковика – расположения между физическим местоположением пользователя и предприятиями, которые Google показывает в результатах своих локальных пакетов.
Кроме того, есть мнение, что локальный фильтр Google работает более независимо от их органического фильтра после Опоссума, так как компании получают высокие рейтинги за списки, указывающие на страницы веб-сайтов с низким или «отфильтрованным» органическим рейтингом.
Помните, что Google всегда стремится показать наиболее релевантный веб-сайт конечному пользователю.
Улучшение общего локального SEO (включая полномочия домена, ссылки, контент, точность и распространение ваших ссылок, а также количество ваших собственных обзоров Google) может помочь «убедить» Google, что, если они собираются показывать только один бизнес в вашей категории и районе, он должен быть вашим.
Опоссум предоставляет хорошую возможность провести аудит конкурента, который не отфильтрован этим фильтром, чтобы увидеть, достигли ли они определенных показателей, которые делают их наиболее актуальным ответом Google.
Поскольку одним из триггеров для Опоссума является присутствие нескольких однотипных компаний географически близко расположенных друг от друга (например, кафе, или сувенирные магазины в исторической части города) и в одном месте, вы можете поэкспериментировать с изменением основной категории в Google Мой бизнес. (Сокращенное руководство по «Google Мой бизнес» см. в приложении. А полную версию этого руководства читайте в книге «50 руководств по SEO-оптимизации»).
Например, если ваша текущая основная категория – «Бар», и вы отфильтровываетесь, потому что эта категория также используется более сильным конкурентом около вас, вы можете протестировать переключение на «Пивной бар», если около вас нет ничего подобного.
Имейте в виду, что изменение категорий может привести к значительному снижению ранжирования, существенным колебаниям трафика и должно осуществляться только с четким пониманием потенциальных негативных воздействий и «Рекомендаций по представлению вашего бизнеса в Google».
Если же трафик уже упал до нуля из-за фильтрации, эксперименты могут оказаться единственным действующим средством для поднятия сайта в Google.
Поскольку Опоссум заложил основу для фильтрации списков на основе их общей принадлежности, это ставит под сомнение целесообразность составления списков для врачей и юристов, агентств недвижимости и аналогичных бизнес-моделей.
Учитывая влияние фильтрации, местной индустрии SEO необходимо продолжать изучать риски и преимущества списков, состоящих из нескольких специалистов, в том числе то, как диверсификация категорий Google может повлиять на результаты после Опоссума.
21 – Panda (Панда. Качество контента)
Фильтр Panda – один из самых известных фильтров, который анализирует качество контента. Этот фильтр может влиять на весь сайт, а иногда и на один раздел, такой как новостной блог на сайте.
Панда не склонна влиять только на отдельные страницы сайта. Если у вас есть сайт с хорошим контентом, но на нем есть страницы с небольшими текстами, или есть текст (фрагменты текста), которые дублируется на разных страницах, то фильтр Panda может вызвать проблемы с ранжированием всего сайта, а не только, по мнению фильтра на «плохие» страницы.
Конечно, Google не раскрывает действительные сигналы ранжирования, используемые в своих алгоритмах, потому что не желает, чтобы SEO-специалисты забывали о качестве выдаваемого материала на сайте и занимались играми в ублажения алгоритмов.
Кроме этого, алгоритмы постоянно усовершенствуются, как программистами, так и уже действующим искусственным интеллектом, и может возникнуть ситуация, что идеально оптимизированная статья под один набор алгоритмов через некоторое время окажется не уделом после ввода других, более тонких подстроек, и дополнений других фильтров.
Поэтому для личного определения качества созданного контента Google рекомендует ответить для себя на следующие вопросы. (Это мой вольный перевод с комментариями.)
– Доверили бы вы информации, представленной в этой статье?
– Эта статья написана экспертом или энтузиастом, который хорошо знает эту тему, или она более поверхностна?
– Есть ли на сайте повторяющиеся, перекрывающиеся или избыточные статьи на одинаковые или похожие темы с немного отличающимися вариантами ключевых слов?
– Будет ли доверительно пользователю предоставлять информацию о своей кредитной карте на этом сайте?
– Есть ли в этой статье орфографические, стилистические или ошибки в изложении фактов? Под фактическими ошибками подразумевается ошибки в изложении фактов. Существует в интернете общепризнанное, экспертное мнение, на которое следует опираться: все, что расходится с этими общепринятыми фактами, является ложью.
Например, ложным фактом является сообщение, что Великая Отечественная война началась в 1956году.
– Подходят ли темы к подлинным интересам читателей сайта, или сайт генерирует контент, пытаясь угадать, чтобы занять хорошее место в поисковых системах?
– Предоставляет ли статья оригинальное содержание или информацию, оригинальную отчетность, оригинальное исследование или оригинальный анализ?
Надергав обрывки статей с других сайтов, не стоит надеяться, что таким образом созданная статья получит высокий рейтинг.
– Предоставляет ли информация на странице существенную ценность по сравнению с другими страницами в результатах поиска?
Не поленитесь, прочитайте статьи ваших конкурентов статьи из первой пятерки поиска по ключевой фразе, по которой написана ваша статья, и убедитесь, что вы выдаете информацию более интересно и освещаете другие факты. Считайте, что место, на которое поставил Google вашу статью – это оценка качества, как со стороны поисковика, так и возможного пользовательского интереса.
Не забывайте о поведенческих факторах, которые скорректируют место в поисковой выдачи, в ответах на запросы пользователей.
– Какой контроль качества делается конкурентами, что вам сделать лучше?
– Описывает ли статья все стороны заданного вопроса лучше, чем это сделали конкуренты?
– Будет ли статья увеличивать авторитет всего сайта, и что уже сделано, чтобы сайт стал признанным авторитетом в своей теме?
– Является ли контент массовым производством, или подобный материал распространяется по различным сайтам, чтобы его отдельные страницы получали больший вес?
– Правильно ли отредактирована и отформатирована статья, или она выглядит неаккуратной или поспешной?
– Если бы вы интересовались вопросами, например, связанным со здоровьем, доверили бы вы информации с этого сайта?
– Признаете ли вы этот сайт в качестве авторитетного источника, когда его упоминают по имени?
– Предоставляет ли статья на сайте полное или исчерпывающее описание темы?
– Содержит ли эта статья глубокий анализ или интересную информацию, которая за гранью очевидности?
– Вы хотите добавить эту страницу в закладки, поделиться с другом или порекомендовать её людям интересующихся этой темой?
– Есть ли в этой статье слишком много рекламы, которая отвлекает или мешает основному содержанию?
– Возможно, ли будет увидеть эту статью в печатном журнале, энциклопедии или книге, или цитаты из неё?
– Являются ли статья короткой, несущественной или не имеющей полезной информации?
– Страницы создаются с большой осторожностью и вниманием к деталям, а не с вниманием к восприятию её алгоритмом Panda или другими фильтрами?
– Будут ли пользователи жаловаться, или ругаться при просмотре этой страницы?
– Получит ли пользователь, исчерпывающий ответ на свой вопрос, или ему придется искать уточнения?
Все статьи из первой пятерки положительно отвечают на эти вопросы. Если нет, что сейчас бывает очень редко, то у вас большие шансы стать первым в результатах поиска по этому вопросу. Чтобы быть выше в результатах поиска, нужно иметь более качественный контент. Это обязательное, но не гарантированное условие, потому как учитываются и другие факторы.
Написание алгоритма для оценки качества страницы или сайта является гораздо более сложной задачей, которая не ограничивается одним фильтром.
Надеюсь, что приведенные выше вопросы помогут понять, как Google подходит к оценке качества контента, и на этом основании пытается написать алгоритмы, которые отличают сайты более высокого качества от сайтов низкого качества.
Задумайтесь, что первостепенная цель Google размещать лучшее в первых ответах поиска, а, чтобы худшее случайно не пробилось вверх – Google сдвигает вниз ответы на запросы пользователей плохие материалы.
К счастью, только разработчики алгоритмов знают, где заканчивается работа одного фильтра, а где начинается работа другого, поэтому не стоит углубляться в названия алгоритмов. Лучше ответить себе на вышеописанные вопросы.
«Panda одно из примерно 500 улучшений поиска, которые мы разместили в этом году. Фактически, с тех пор как мы запустили Panda, мы развернули более десятка дополнительных настроек наших алгоритмов ранжирования, и некоторые SEO-оптимизаторы ошибочно предположили, что изменения в их рейтингах были связаны с Panda. Поиск – это сложное и развивающееся искусство и наука, поэтому вместо того, чтобы фокусироваться на конкретных алгоритмических настройках, мы рекомендуем вам сосредоточиться на предоставлении пользователям наилучшего материала.»
Амит Сингхал, сотрудник Google
А теперь рассмотрим доступные пользователям факторы, которые включены в алгоритм Panda.
Мало текста
Страницы считаются слабыми, если описание релевантного запроса на странице содержит не достаточно, мало текста.
Например, набор страниц, описывающих различные болезни, тех, которые часто запрашивают пользователи, но описание содержит по несколько предложений.
Чем более популярен запрос, тем Panda считает, что должно быть более развернутое описание.
Желаете, чтобы ваш сайт, по популярному запросу, был выше конкурентов в выдаче? Анализируйте контент этих конкурентов, и делайте свои описания более качественным.
Глупо надеяться, что Google в ответах на запрос пользователей поставит менее полезный материал выше, чем те, которые уже завоевавших авторитет.
Panda считает контент низкокачественным, поскольку контенту на веб-странице не хватает подробной информации.
Например, страница рассказывает о высокой надежности входной двери в квартиру, но в тексте нет слов, которые описывали бы надежность, таких как материал изготовления, толщина стального листа двери, замки, конструкция, покрытие, уплотнения, и т. д.
Если у конкурента на сайте, в ответе на запрос стоит текст длинной в 10 тысяч печатных знаков (Лонгри́д – букв. «долгое чтение» – формат подачи журналистских материалов в интернете), то никакой текст с несколькими сотнями печатных знаков не будет в ответах на конкретный запрос позиционироваться выше, даже если тысячи страниц ссылается на короткий текст.
Полный список функций, которые выполняет фильтр Panda – это закрытая информация. Кроме этого, не обнародуется специфика действий и других фильтров, поэтому возникают некоторые пересечения в действиях различных фильтров.
Например, об анализе на дубли или копии страниц говорится в нескольких фильтрах, но в открытом доступе нет информации о том, где заканчивается действие одного фильтра, а где начинается действие другого фильтра. Возможно, некоторые фильтры со временем утрачивают свою актуальность, пишутся другие алгоритмы, и включаются в новые фильтры.