bannerbanner
300+ факторов ранжирования в Google
300+ факторов ранжирования в Google

Полная версия

300+ факторов ранжирования в Google

Настройки чтения
Размер шрифта
Высота строк
Поля
На страницу:
9 из 10

· Текст, который не имеет смысла для читателя, но может содержать ключевые слова для поиска.


· Текст переведён с помощью автоматизированного инструмента без проверки человеком без редактуры и корректуры.


· Текст генерируется с помощью автоматизированных процессов, таких как цепочки Маркова (последовательность случайных событий с конечным или счётным числом исходов, характеризующаяся тем свойством, что, говоря нестрого, при фиксированном настоящем будущее независимо от прошлого).


· Текст, созданный с использованием автоматических методов синонимизации или перестановки слов в предложении.


· Текст, сгенерированный из очищающей ленты Atom / RSS или результатов поиска.


· Сшивание или комбинирование контента с разных веб-страниц без добавления достаточного значения.


Google ненавидит авто сгенерированный контент. Если они подозревают, что ваш сайт откачивает контент с других сайтов, это может привести к штрафу или деиндексированию.

58 фактор. Копии частей контента на разных страницах сайта

«Содержимое, которое копируется, но немного отличается от оригинала – отрицательный фактор. Этот тип копирования затрудняет поиск точного соответствия исходного источника. Иногда меняются только несколько слов или меняются целые предложения, или делается модификация «найти и заменять», где одно слово заменяется другим во всем тексте. Эти типы изменений намеренно выполняются, чтобы затруднить поиск исходного источника контента. Мы называем этот контент «скопированным с минимальными изменениями, и как правило не учитываем его при ранжировании».

Руководство по оценке качества поиска Google Март 2017.


Часто на сайтах услуг, которые оказываются в разных городах, создаются страницы с одним и тем же текстом, но меняется только название города.


Повторяющийся контент – это отрицательный фактор для всего сайта. Когда поисковые системы сканируют много URL-адресов с одинаковым (или очень похожим) контентом, это может вызвать ряд проблем с SEO.


1. Пользователи должны пробираться через слишком много дублированного контента, поэтому могут пропустить часть уникального контента.


2. Крупномасштабное дублирование может привести к снижению ранга всего сайта, т.к. один вес страницы будет распределяться на все копии. Например, ремонт смартфонов оказываются в пяти районах города. Создано пять страниц контента, в которых меняется только название района. С точки зрения геозависимости очень здорово, потому что пользователь, набрав «ремонт смартфона в промышленном районе» попадает на страницу, оптимизированную под этот район. Но страниц с мало изменённым текстом – пять, поэтому вес каждой страницы составляет пятую часть.


3. Увеличивает время ранжирования всего сайта за счёт того, что будут индексироваться копии, а не информативные веб страницы. Интернет-магазины часто для увеличения количества товаров делают для каждого размера и / или цвета отдельные страницы. Так ранжируются карточки одного и того же товара в то время, как другой товар ждёт своей очереди.


4. Но даже если контент имеет рейтинг, поисковые системы могут выбрать неправильный URL как «оригинал». Использование canonicalization помогает контролировать дублированный контент.

59 фактор. Дубли или копии страниц на сайте

Дубли или копии – это одна и та же страница сайта, которая открывается по нескольким разным адресам.


Копии страниц чаще всего возникают, когда:


· Движок системы управления содержимым сайта (CMS) автоматически генерирует дубликаты страниц.

Например, http://site.net/press-centre/cat/view/identifier/novosti/ http://site.net/press-centre/novosti/.


· Для Google одна и та же страница, например,

http://site.net/press-centre/novosti/ – со слешем в конце http://site.net/press-centre/novosti – без слеша в конце считается, как 2 разные страницы, т.е. дубли.


· Один и тот же товар представлен в нескольких категориях. Например, костюм может быть в категории костюмы, в категории бренды, и в категории распродажа.

Например, http://site.net/category-1/product-1/ http://site.net/category-2/product-1/ http://site.net/rasprodaza/product-1/.


· При изменении структуры сайта, когда уже существующим страницам присваиваются новые адреса, но при этом сохраняются их дубли со старыми адресами.

Например,http://site.net/catalog/product http://site.net/catalog/podcategory/product.


· Это происходит, когда каждому пользователю, посещающему веб-сайт, назначается другой идентификатор сеанса, который хранится в URL-адресе.


· Версия для печати содержимого также может вызывать повторяющиеся проблемы с содержимым, когда индексируются несколько версий страниц.


· Если сайт имеет отдельные версии на «www.site.com» и «site.com» (с префиксом «www» и без него), и один и тот же контент живёт в обеих версиях. Так создаются дубликаты каждой из этих страниц. То же самое относится к сайтам, которые поддерживают версии как в http: //, так и в https: //. Если обе версии страницы являются живыми и видимыми для поисковых систем – это проблема с дублированием контента. И как говорилось раньше, вес таких страниц делится на количество страниц.


Устранение проблемы с повторяющихся контентом сводится к одной идее: указать, какой из дубликатов является «правильным».


Всякий раз, когда контент на сайте можно найти по нескольким URL-адресам, он должен быть канонизирован для поисковых систем.


(Канонический тег («rel canonical») – это способ сообщить поисковым системам, что конкретный URL-адрес представляет собой главную копию страницы.)


На данный момент используют один из трёх основных способов избавиться от индексирования дублей страниц.


· использование 301 перенаправления на правильный URL,

· rel = canonical атрибут

· или использование инструмента обработки параметров в Google Search Console.


301 перенаправление.


Во многих случаях лучшим способом борьбы с дублирующим контентом является настройка 301 перенаправления с «дублированной» страницы на исходную страницу контента.


Когда несколько страниц с потенциалом для ранжирования хорошо объединены в одну страницу, они не только перестают конкурировать друг с другом; они также создают более сильную релевантность и популярность сигнала для поисковика в целом. Это положительно повлияет на способность «правильной» страницы хорошо ранжироваться.


Атрибут rel = «canonical».


Другим вариантом для борьбы с копиями контента является использование атрибута rel = canonical. Это говорит поисковым системам, что данная страница должна рассматриваться как копия указанного URL-адреса, а все ссылки, метрики контента и «рейтинг мощности», которые поисковые системы применяют к этой странице, должны быть направлены на указанный адрес URL.


Атрибут rel = «canonical» является частью HTML-страницы, заносится в HEAD страницы, и выглядит следующим образом:


Общий формат:

…[другой код, который должен быть в HTML-заголовке веб-страницы]…

…[другой код, который может быть в HTML-заголовке веб-страницы]…


Например, для текущей страницы указать ее каноническую ссылку .


Атрибут rel = ‘’canonical’’ должен быть добавлен в HTML-заголовок каждой повторяющейся версии страницы, а часть «АДРЕС (URL) ОРИГИНАЛЬНОЙ СТРАНИЦЫ» выше заменена ссылкой на исходную (каноническую) страницу.


Атрибут передает примерно одинаковое количество веса ссылки в качестве перенаправления 301, и, поскольку он реализован на уровне страницы (вместо сервера), более легок в исполнении.


Мета-роботы Noindex.


Один метатег, который может быть особенно полезен при работе с дублями контента, – это meta robots, когда он используется со значениями «noindex, follow».


Обычно называемый Meta Noindex, Followи технически известный как content = «noindex, follow», этот тег мета-роботов добавляется в HTML-заголовок каждой отдельной страницы, который должен быть исключен из индекса поисковой системы.


Общий формат:

…[другой код, который должен быть в HTML-заголовке веб-страницы]…

…[другой код, который должен быть в HTML-заголовке веб-страницы]…


Тег meta robots позволяет поисковым системам сканировать ссылки на странице, но не позволяет им включать эти ссылки в свои индексы. Важно, чтобы дубли страниц все равно сканировалась, хотя говорите Google не индексировать ее, потому что Google явно предостерегает от ограничения доступа к общему доступу к дублированию контента на вашем веб-сайте.


Поисковые системы желают видеть все на случай, если вы сделали ошибку в своем коде.


Использование мета-роботов является особенно хорошим решением для разрешения проблемы с дублями страниц.


Предпочтительная обработка доменов и параметров в Google Search Console.


Консоль Google Search Console позволяет указать предпочтительный домен сайта (например, http://yoursite.com вместо http://www.yoursite.com) и указать, должен ли Googlebot сканировать различные параметры URL-адреса по-разному, т.е. обрабатывать параметры.


В зависимости от структуры URL-адреса и причины возникновения проблемы с дублями страниц, можно настроить или предпочитаемый домен, или обработку параметров (или оба!).


Основным недостатком использования обработки параметров в качестве основного метода работы с копиями страниц является то, что эти изменения, работают только в Google.


Любые правила, введенные с помощью Google Search Console, не повлияют на то, как Яндекса, так и других поисковых систем, которые сканируют сайт. Придется использовать инструменты для других поисковых систем в дополнение к настройке параметров в Search Console.


Файл robots. txt.


В файле robots. txt сообщается поисковым ботам, какие страницы или файлы не стоит сканировать.


Для этого используют директиву «Disallow». Она запрещает заходить на ненужные страницы.


Заметьте, если страница указана в robots. txt с директивой Disallow, это не значит, что страница не будет проиндексирована, и не попадёт в выдачу.


Это может произойти, потому что

· страница была проиндексирована ранее,

· на неё есть внутренние

· или внешние ссылки.


Инструкции robots. txt носят рекомендательный характер для поисковых ботов. Поэтому этот метод не гарантирует удаление дублей из списка ранжированных страниц.


Всегда тег rel = canonical гарантирует, что версия вашего сайта получит дополнительный кредит доверия как «оригинальный» фрагмент контента.


Дополнительные методы для работы с дублирующим контентом.


1. Если веб-мастер определяет, что каноническая версия домена – www.example.com/, то все внутренние ссылки должны идти по адресу

http: // www. example.com/example, а не http: // example.com/page

(обратите внимание на отсутствие www).


2. При копировании фрагмента контента убедитесь, что страница с копированной частью добавляет ссылку на исходный контент, а не вариант URL.


3. Чтобы добавить дополнительную защиту от копирования контента, уменьшающего SEO- вес для контента, разумно добавить ссылку на rel-canonical для ссылок на существующие страницы. Это канонический атрибут, указывающий на URL-адрес, на котором он уже включён, и это значит, что это препятствует воровству контента.


После того как устранили дублирующий контент необходимо проверить сайт ещё раз. Только так можно убедиться в эффективности проведённых действий.


Анализ сайта на дубли желательно проводить регулярно. Только так можно вовремя определить и устранить ошибки, чтобы поддерживать высокий рейтинг сайта.


Дополнительно читайте о дублях страниц в ФИЛЬТРЕ PANDA, в первой части книги «36 фильтров Google».

ИЗОБРАЖЕНИЯ

60 фактор. Уникальность изображения

На сайте изображения должны быть уникальными, также, как и тексты. Если картинка взята с другого сайта, то такие изображения не учитываются.


Даже если у вас интернет-магазин, который продаёт брендовые вещи, и на нем вы размещаете фотографии производителя, то для поисковиков – это не аргумент качества сайта, а фактор того, чтобы не учитывать это изображение.


Только уникальные изображения добавляют вес страницы.

61 фактор. Дубли изображения

Также, как и текст поисковик учитывает только на одной страницы, которую проиндексировал первой, так и изображение увеличивает вес только один раз.


Повороты, обрезание, зеркальные отражения, применение различных фильтров Google распознает. Так что такие манипуляции с изображениями не проходят.

62 фактор. Количество пикселов и килобайт

Изображения менее 160 пикселов – это 40х40 пикс. Google относит к дизайнерскому оформлению сайтов и не учитывает. Поэтому миниатюры изображений должны быть более чем 50х50 пикселов, если желаете, чтобы поисковик учёл эту картинку. Это замечание актуально для интернет-магазинов, которые размещают несколько мелких изображений товара под одним большим, потому что Google считает мелкие картинки частью дизайна.


Google считает, что несколько изображения товара лучше его представляют, чем одна картинка.


Поисковик считает, что большие изображения более полезны пользователю, но следует учитывать, что чем больше картинка, тем требуется больше времени для её загрузки. Если же страница сайта грузится долго, то это существенный фактор понижения веса сайта.

Сейчас фотоаппараты позволяют делать фотографии более 10 МБ, и количеством пикселей более чем 5000х3000. Такие фотографии не допустимы для интернет-страниц.


Поэтому первое, что нужно сделать – это уменьшить размер фотографии до размера экрана пользователя. Если Ваш потенциальный пользователь будет смотреть Ваш сайт на компьютере или ноутбуке, то, делайте фотографии не больше разрешения его монитора. Если де сайт нацелен на пользователей смартфонов, то уменьшайте фотографии под экран смартфона.


Для смартфонов не стоит размещать фотографий больше трёх. По исследованиям маркетологов большее количество – утомляет.


И последнее – фотографии не должны превышать 200 КБ, а желательно чтобы они были меньше 100 КБ. В любом случае соблюдайте правило: «Минимальный размер при сохранении допустимого качества.»

63 фактор. Количество изображений на странице

Хорошая статья с одним изображением получает больший вес, чем эта же статья без изображения. Google считает, что изображение – хороший сигнал того, что страница качественная.


Однако второе, третье и т. д. изображения слабо увеличивают вес страницы, но снижают скорость загрузки страницы, а чем медленнее скорость загрузки, тем больше уменьшается рейтинг сайта.


Много изображений, значит дольше пользователь остаётся на странице, рассматривая их. Это увеличивает рейтинг страницы, но увеличение скорости загрузки снижает этот же рейтинг. Точных расчётов, возможно ещё и у Google нет, но это не значит, что его и не будет. Поэтому лучше не заморачиваться на этих параметрах, а делать просто хорошо. В конечном счёте Google учится выбирать лучшее.

64 фактор. Название файла изображения

Очень часто на веб страницах можно увидеть картинки с такими названиями «e1495475889821.jpg».


Google не приветствует такие названия. Google считает, что название файла изображения должно соответствовать изображению. Поэтому файл с картинкой следует называть по изображаемому объекту латиницей, и желательно с употреблением ключевых слов.


Например, «divan.jpg».

Если требуется написать несколько слов, то нужно писать их через дефис или нижнее подчёркивание: «сhjornyj-divan.jpg», или «сhjornyj_divan.jpg» хуже без разделения «сhjornyjdivan.jpg». Цифры допускаются если указывается количество объектов на изображении. Заглавные буквы – не допустимы. Можно использовать только маленькие буквы без пробелов Недопустимы символы и спецсимволы.


Кроме этого, Google отмечает, что путь к изображению тоже должен быть человеку понятным, например, таким «img/divany/сhjornyj_divan.jpg».

65 фактор. Атрибут ALT

Текст alt, по существу, отображается, когда изображения отключены в большинстве браузеров, поэтому мы считаем его частью текста на странице.

Джон Мюллер, Google 2017.


«Поскольку робот Googlebot не видит изображения напрямую, мы обычно концентрируемся на информации, предоставленной в атрибуте «alt».

SEROUNDTABLE, 2017.


Атрибут ALT – значимый, как теги заголовка и описания веб страницы.


Формат записи:


«Моё


Менее трудозатратный вариант.


Для Google и поддерживающих WebP обозревателей будет выводится my_image. webp, а для Safari будет показываться изображение my_image.jpg.


Т.е. картинки с jpg оставляем как есть, а с помощью утилит, которые вы без труда найдёте в интернете конвертируем jpg в WebP.


Преобразование картинок в WebP не только уменьшает скорость загрузки, но и показывает поисковику, что страница качественная.

68 фактор. Результаты изображения

Блок изображения Google иногда появляются в обычных, органических результатах поиска.


Многие SEO-эксперты утверждают, что появление в этом блоке увеличивает рейтинг сайта.


Другой пользы от появления в этом блоке, маловероятно, потому что людей, ищущих картинки, вряд ли интересуют покупки и тексты.

ВИДЕО

69 фактор. Видео

Здесь мы не будем рассматривать места, где размещать видео, как подбирать ключевые слова и писать заголовки и описания. Все это делается на видео-хостинге, где хранится видео.


Здесь рассмотрим только отношение Google к видео размещённого на странице веб-сайта, и как лучше сделать, чтобы увеличить вес страницы.


Видео на странице – это прежде всего разнообразие контента на станице, что уже является положительным сигналом. Это и увеличение времени просмотра страницы, что является ещё одним сигналом для поисковика качества содержания страницы.


Третьим положительным фактором является то, что видеофайл берётся с другого сайта, а это уже внешняя ссылка.

На страницу:
9 из 10