Мы изучили 1.1 миллион результатов поиска Гугла, чтобы понять что лучше всего работает в SEO в 2023 году.

Если бы научное сообщество глубоко заглянуло в SEO-индустрию, они бы, наверное, так сильно смеялись, что парочка из них наверняка умерла бы от инсульта.

Несмотря на то, что на данный момент отрасль находится в стадии становления. Большинство правил SEO основаны лишь на анекдотических фактах.

…или теориях, которые придумал какой-то гуру, основанных на твите Мэтта Каттса 6-летней давности.

Поэтому мы хотели сделать все возможное, чтобы попытаться выровнять ситуацию и привести фактические данные, особенно после недавней партии огромных обновлений, которые были внесены в основной алгоритм Google.

Будьте добры, это наша первая попытка, но мы создали пользовательский краулер для этого поста, чтобы проанализировать 1,1 миллиона результатов поиска и поделиться нашими выводами здесь (ух ты, только написав это, я могу сказать, что это имеет большой смысл для бизнеса).

одна часть пользовательского краулера, который мы создали для этого поста

Вот краткое изложение того, что мы узнали:

  1. Верхняя позиция, скорее всего, будет наиболее релевантным результатом. Если есть очевидный результат (например, бренд), Google покажет его, даже если это противоречит всем остальным факторам ранжирования и правилам SEO.
  2. Для менее очевидных результатов (т.е. небрендированных поисковых запросов по ключевым словам) на первый план выходят Featured Snippets. 50-65% всех мест номер один занимают Featured Snippets.
    Другими словами, именно в этой области происходит основная SEO-конкуренция. Google движется в направлении более быстрых ответов и меньшего количества кликов на SERP.
  3. Из-за этих двух вещей, большая часть фактической SEO конкуренции происходит на втором и третьем месте в настоящее время.
  4. Обратные ссылки, измеряемые количеством ссылающихся доменов на URL-адрес, по-прежнему являются наиболее сильно коррелирующим фактором успеха SEO.
  5. Некоторые из популярных показателей авторитетности ссылок, такие как Ahrefs Rank или Domain Rating, в нашем исследовании оказались менее коррелированными, чем мы ожидали.
  6. Ключевые слова имеют значение. Как количество ключевых слов в контенте, так и плотность ключевых слов. Ключевые слова в URL оказались в некоторой степени релевантными. Ключевые слова в метатегах, тегах h1 и title показали гораздо более сильную корреляцию.
  7. Хотя более длинный контент действительно коррелирует с более высокими рангами, разумно считать, что длина не является фактором — скорее она обеспечивает пространство для вставки большего количества ключевых слов с не спамерской плотностью.
  8. Лучше оптимизировать под родительскую тему (ключевое слово с наибольшим объемом, по которому ранжируется верхний результат), чем под фактическое ключевое слово, которое он охватывает. Все результаты с высоким рейтингом доминируют над «родительской темой», а не над ключевым словом, по которому они ранжируются.
  9. HTTPS теперь является обязательным условием для ранжирования. Здесь нет никаких новостей, Google уже ясно дал это понять.
  10. Некоторые слухи о SEO оказались полностью несостоятельными. Например, слухи о том, что Google по-другому относится к ключевым словам с высоким объемом трафика или что он отдает предпочтение контенту со вставками YouTube перед другими видеоплатформами.
  11. Некоторые устоявшиеся убеждения могут быть просто результатом плохой проработки данных в предыдущих исследованиях. Например, длина URL является сильным фактором ранжирования.
  12. Все результаты первой страницы показывают высокий средний балл (более 90 %) по Lighthouse Audits (SEO) Google, но не было обнаружено связи между более высокими баллами и высшими рангами.
  13. Скорость страницы, похоже, помогает, но не так сильно, как ожидалось. Вы должны хотеть, чтобы ваши страницы загружались быстро, по разным другим причинам.
  14. Требует дальнейшего изучения: Некоторые результаты на второй странице имитируют метрики верхних результатов на первой странице — похоже, существует тонкая грань между тем, чтобы сделать все правильно, и тем, чтобы показаться спамом.


Продолжайте читать, чтобы узнать больше подробностей о результатах исследования …

Об этом исследовании

Короче говоря, для этого исследования мы отобрали 120 000 случайных ключевых слов из Google Keyword Planner, половина из которых, как мы убедились, получала не менее 1000 поисковых запросов в месяц.

Затем мы получили 10 лучших результатов SERP по каждому из них и взяли дополнительные данные из Ahrefs (например, рейтинг домена), Google API и наших собственных краулеров.

В итоге мы получили довольно богатый набор данных, включающий около 1,1 миллиона результатов SERP.

Вот технологический стек, который мы использовали для сбора данных

Уже существующие исследования, а что там.

Естественно, прежде чем приступить к этому, мы посмотрели, какие исследования проводились в прошлом. На удивление, не так много.

То, что сделано, либо выходит в виде исследования, опубликованного одним из поставщиков SEO-данных, например Ahrefs (которые делают большую работу), либо в виде стороннего анализа данных, предоставленных поставщиками, как, например, исследование 2016 года, проведенное Backlinko, которое послужило вдохновением для этой статьи, но показалось немного устаревшим, учитывая масштабные изменения алгоритмов, произошедшие в 2018 и 2019 годах.

Затем есть что-то вроде ежегодного опроса SEO-профессионалов от Moz, где они сообщают о своем ежедневном опыте. Все это мы сочли ценным для начала работы.

Остальное основано на слухах, анекдотических свидетельствах, анализе прошлых сообщений в блоге и твитах Мэтта Каттса и переработанных выводах из прошлых исследований.

Очевидно, что мы были рады сделать это.

Ограничения и проблемы нашего исследования

Это был весьма поучительный опыт работы с таким количеством точек данных, и мы столкнулись с множеством проблем.

Это были некоторые хитрые вещи, которые позволяли получить результаты, которые казались вполне нормальными, но на самом деле были недействительными или ненадежными. Удивительным было то, что многое из того, что мы знаем о SEO, может быть получено благодаря таким результатам.

Например, при работе с таким большим набором случайных данных о ключевых словах (в данном случае 100 000) вы получите большое количество брендовых ключевых слов.

Это означает, что сравнение результатов первого места с остальными даст очень разные результаты, поскольку в случае брендовых ключевых слов Google не будет особо заботиться о таких мелких SEO-факторах, как HTTPS или скорость страницы, когда есть один очевидный ответ на запрос.

В результате средняя статистика первого места часто выглядит совсем иначе, чем все, что находится ниже.

Это то, что также проявляется в исследованиях других людей, например Ahrefs или Backlinko. Часто об эффективности SEO можно судить по совокупности данных результатов второго и третьего рангов.

Или другой пример — много писали о том, что более короткие URL ведут к лучшему ранжированию, и это было подтверждено прошлыми исследованиями.

Если вы работаете с совокупными результатами и разнообразными ключевыми словами, то, скорее всего, более высокие ранги будут у реальных домашних страниц без суффикса, потому что они релевантны конкретным ключевым словам и будут ранжироваться по запросу в любом случае, а не потому, что у них короткий URL.

Другими словами, для многих ключевых слов вы, скорее всего, найдете что-то вроде www.website.com среди более высоких рангов, в то время как что-то вроде www.website.com/top-ten-something имеет более короткую среднюю длину.

Мы сделали все возможное, чтобы отфильтровать многие из этих статистических шумов.

Итак, вот фактические результаты….

#1 Все еще стоит бороться за место №1

Вы когда-нибудь слышали о правиле Парето? Это идея о том, что подавляющее большинство результатов в любой области достигается благодаря «жизненно важным немногим» — об этом написано во многих интернет-блогах.

Ну, во-первых, Парето был экономистом, а правило Парето — это экономическая концепция. И в мире бизнеса и экономики, похоже, доминирует это правило.

Например, 99% приложений в магазинах мобильных приложений не приносят прибыли или приносят мало денег, в то время как все миллиарды достаются 1% лучших. Или 95% розничных инвесторов на рынке ценных бумаг едва выходят в безубыток.

В среднем верхний результат получает 40% совокупного органического трафика. Для ключевых слов, имеющих большое значение (т.е. >1000 поисковых запросов в месяц), этот показатель увеличивается до 47%.

То же самое происходит и с SEO. Первые места доминируют на рынке, оставляя остальных в пыли.

Это связано не только с тем, что результат №1 является №1 для ключевого слова, которое мы рассматривали. Это также связано с тем, что результат №1 в итоге ранжируется в среднем по гораздо большему количеству ключевых слов.

И его рейтинг #1 позволяет ему получить больше органических ссылок, что укрепляет его позицию. Это добродетельный круг.

Время от времени я сталкиваюсь с некоторыми «альтернативными фактами» и SEO-идеями вроде того, что вы должны стремиться к месту номер два или три в предположении, что большинство людей пропускают первый результат с недоверием.

Глядя на органический трафик, полученный нами с Ahrefs, кажется, что это не так.

Вывод: Стоит бороться за место №1, когда вы находитесь на первой странице по ключевому слову. Часто даже больше, чем бороться за новые ключевые слова, если у вас есть шанс.

#2 Featured Snippet очень сильно бустит

В целом, 46% верхних позиций в нашем исследовании были заняты функцией SERP. Для ключевых слов, получающих приличное количество поисковых запросов, этот показатель был немного выше — около 48%.

Если вы занимаетесь SEO, это не самая актуальная цифра.

В принципе, для брендовых ключевых слов нет необходимости в функции SERP, если поиск по ним может дать очень конкретный результат, например, определенную страницу Amazon.

Итак, после того, как мы очистили результаты от вероятных брендовых запросов, результаты подскочили до 65,5%.

Это намного больше, чем 12,29%, которые Ahrefs обнаружил в середине 2017 года, даже с учетом здоровой погрешности.

Другими словами, для небрендированных ключевых слов место номер один заменяется немедленным ответом.

Это означает, что происходит явный сдвиг в сторону монополизации трафика Google, и пользователи могут в итоге получить немедленные ответы, никогда не переходя по ссылкам, что со временем снизит общий объем органического трафика.

Наш совет — оптимизировать свою страницу таким образом, чтобы она попала в одну из этих функций SERP.

Компания Hubspot провела тематическое исследование по этому вопросу и показала, что для крупных запросов, когда они появлялись в полном сниппете, их страница получала более высокий CTR, чем когда они этого не делали.

В идеале, вы хотите занять второе место, а также оптимизировать свою страницу для привлечения трафика в новом мире, где доминируют функции SERP. Например, с помощью сильного заголовка.

Заключение: Мы движемся в сторону доминирования сниппетов в результатах поиска, и вы ничего не можете с этим поделать. Не просто оптимизируйте с целью стать одним из них, но и стремитесь стать первым «классическим» органическим результатом.

#3 HTTPS имеет значение, но релевантность важнее

Здесь нет ничего нового, Google уже давно настаивает на использовании HTTPS. Была угроза потери рейтинга, и Chrome будет буквально называть ваш сайт небезопасным, если у вас нет активного SSL-сертификата.

На данный момент более 90% результатов на первой странице уже имеют HTTPS, что показывает, что большинство сайтов перешли на SSL, и Google вознаграждает их за это.

Однако рейтинг #1 имеет более низкую корреляцию, скорее всего, из-за фактора релевантности, о котором мы упоминали ранее.

Это просто потому, что если вы набираете в поисковике что-то вроде «центр поддержки детей» с IP-адреса в Огайо, Google поместит сайт местного центра поддержки детей в начало страницы, независимо от того, есть у него SSL-сертификат или нет.

Для таких запросов, как мы выяснили, ни HTTPS, ни какие-либо другие SEO-факторы не играют большой роли.

Вывод: Защитите свой сайт с помощью HTTPS, если вы еще этого не сделали. Какими бы ни были результаты этого исследования, Google четко обозначил свое направление, и вы, вероятно, пострадаете от последствий, если будете медлить с этим.

#4 Обратные ссылки по-прежнему являются фактором ранжирования №1

Здесь нет никаких новостей. Обратные ссылки остаются самым важным фактором ранжирования.

Мы измерили общее количество ссылающихся доменов, указывающих на URL-адрес, и это дало самую высокую корреляцию с первыми местами в рейтинге.

На данный момент мы можем говорить только о том, что количество и разнообразие IP является фактором. (Я полагаю, что Ahrefs провел более обширное исследование профилей обратных ссылок, но я не смог найти его снова).

Диаграмма: Хотя среднее количество обратных ссылок на SERP менялось в зависимости от набора данных (высокообъемные ключевые слова против всех, брендированные и небрендированные), соотношение оставалось неизменным для всех проведенных нами анализов.

Сейчас я склонен считать, что когда SEO-специалисты говорят о таких факторах, как длина контента или наличие изображения, они могут вовсе не быть факторами, которые учитывает Google, а просто коррелировать с более высоким качеством контента, на который ссылаются.

Мы рассмотрели и другие популярные метрики, такие как Ahrefs Rank, и не обнаружили никакой корреляции. Рейтинг домена оказался в некоторой степени релевантным.

Вывод: Тратьте больше времени на создание контента, на который будут ссылаться, вместо того, чтобы читать все эти SEO-руководства и статьи.

#5 Длина URL и ключевые слова в URL

В настоящее время в SEO-индустрии считается, что длина URL-адреса влияет на рейтинг. Предыдущие исследования также связывали более высокие ранги поиска с точным соответствием ключевого слова в URL.

Мы также обнаружили такую же корреляцию, но отнеслись к этому с подозрением. Логично, что чем выше вы поднимаетесь в поисковой выдаче, тем короче будет URL, поскольку вы будете получать больше результатов для главной страницы без суффикса и коротких страниц категорий.

При использовании большой выборки ключевых слов несколько таких результатов резко повлияют на среднюю длину.

При наличии ключевых слов все несколько иначе. Взгляните на два примера URL ниже.

www.mywebsite.com/protein-bars-vegan-athletes
www.mywebsite.com/vegan-protein/

Допустим, вы хотите ранжироваться по ключевому слову «веганские протеиновые батончики». Стандартный совет — использовать суффикс, как в последнем примере, т.е. /vegan-protein/.

При поиске точного соответствия в суффиксе URL, в целом, мы не обнаружили никакой корреляции.

Если бы мы включили корневой домен, то несколько лучших доменов выделялись бы более высокими показателями, поэтому разумно предположить, что ключевые слова в корневых доменах (или поддоменах), похоже, в какой-то степени релевантны, несмотря на то, что говорит Google.

Теперь предположим, что ключевое слово, которое мы рассматриваем, — «веганские протеиновые батончики». Когда мы разделили ключевое слово на «веган», «протеин», «батончик» и просто подсчитали их количество, мы обнаружили гораздо более сильную корреляцию.

С помощью этого метода первый, более длинный URL-адрес с большей вероятностью будет найден выше в поисковой выдаче.

Заключение: Я думаю, что длина URL и ключевые слова в нем имеют гораздо меньшее значение, чем принято считать. Даже с учетом некоторых корреляций, если посмотреть на все полученные результаты, дело обстоит не так убедительно.

Тем не менее, хорошей практикой может быть сохранение короткого и лаконичного URL, но достаточно длинного, чтобы в нем присутствовали все важные слова в высокообъемных ключевых словах, по которым вы хотите ранжироваться.

#6 Ключи в метатегах, Title, H1 и т.п.

Нам удалось обойти 90% всего набора данных из 1,1 миллиона URL (остальные 10% заблокировали наш запрос или каким-то образом были недоступны для краулеров).

Мы обнаружили гораздо более сильную корреляцию для ключевых слов в метаописаниях, тегах H1 и Title, чем при анализе URL. Фактически, мы можем считать, что Google смотрит на них, поскольку их инструмент аудита Lighthouse достаточно ясно показывает, что они имеют значение.

В каждом случае наблюдалась довольно сильная корреляция для ключевого слова, по которому мы получили ранги, но еще более сильная для родительской темы.

Более того, ключевые слова родительской темы (ключевое слово с наибольшим объемом, по которому ранжируется верхний результат — в два раза чаще появлялись в этих свойствах.

Это побудило нас обратить больше внимания на родительскую тему при анализе присутствия ключевых слов в следующих тестах, чтобы понять, насколько она ценна для SEO.

Однако, глядя на фактический список родительских тем, я заметил одну вещь: они часто являются более короткими версиями ключевого слова, которое мы анализировали, что объясняет, почему они часто опережают фактическое ключевое слово по корреляции.

Вывод: Оптимизируйте эти свойства для вашего ключевого слова, но не забывайте в первую очередь ориентироваться на родительскую тему. Кстати, в этом анализе мы измеряли точное соответствие.

#7 Объём контента и количество ключей

В SEO-индустрии бытует мнение, что более длинный контент обеспечивает более высокие рейтинги, или что Google каким-то образом предпочитает длинный контент.

Существует также общее мнение, что оптимальная длина контента для SEO составляет около 2000 слов. Хотя исследование и выявило корреляцию между длиной контента, я склонен не согласиться с общим мнением.

Во-первых, в любом более крупном исследовании трудно точно оценить длину контента, если только это не делается вручную. Веб-скреперы склонны выхватывать элементы, которым не место в подсчете слов, и завышать цифры.

Такие вещи, как разделы комментариев, боковая навигация и авторские блоки.

В других случаях исследования, опубликованные на эту тему, исходят от компаний-разработчиков программного обеспечения, бизнес которых связан с контент-маркетингом, и поэтому они будут предвзято говорить вам, что длинный контент лучше.

Для данного исследования мы попробовали множество различных решений и в итоге остановились на одном, построенном на библиотеке Readability, которая обеспечивает просмотр читателя в браузере Firefox, поскольку оно лучше всего изолирует контент и удаляет навигацию, комментарии и т. д.

Хотя мы обнаружили прекрасную корреляцию для количества слов, общая длина контента оказалась короче, чем принято считать, как только вы убираете много шума, который обычно улавливают более универсальные скрапперы.

Но вот самый интересный результат.

Для лучших результатов ключевое слово в среднем 5,7 раз встречается в читаемом тексте (например, в теле статьи) и 17,2 для родительской темы. Это примерно в 3 раза больше по сравнению с результатами 12-го ранга.

Количество ключевых слов также показало прекрасную корреляцию. В среднем мы обнаружили, что ключевое слово появляется в читаемом тексте шесть раз.

Что еще более интересно, так это то, что родительская тема появлялась в читаемой части текста почти в 3 раза чаще, чем ключевое слово, по которому мы проанализировали SERP.

Еще один интересный момент: плотность ключевых слов тоже коррелирует, несмотря на то, что более высокие позиции имеют более длинный средний объем слов.

Заключение: В результате мы приходим к выводу, что на SEO может влиять не столько длина контента, сколько возможность показать Google больше ключевых слов при сохранении достоверной плотности.

Другими словами, если вы не оптимизируете свой контент под ключевые слова, длина контента не сильно поможет. (Если только он не настолько хорош, что само количество его ценности заставляет больше сайтов ссылаться на вас).

#8 Lighthouse Audit And PageSpeed Insights

Наконец, мы хотели взглянуть на скорость страницы и все остальное, что можно получить с помощью инструментов API Google.

Многое было сказано о том, что скорость имеет решающее значение для SEO.

В прошлом были найдены некоторые корреляции, но обычно они исходили из таких источников, как Alexa. Я предполагаю, что это самый дешевый и простой способ получить дополнительные данные.

Мы тоже рассматривали Alexa, но многие пользователи сообщают неточные данные, поэтому мы обратились к собственному инструменту Google PageSpeed Insights — гораздо более дорогостоящему способу получения данных.

Этот инструмент дает общую оценку URL-адреса, учитывая ряд факторов, включая скорость, общую производительность, передовые методы SEO и мобильную оптимизацию.

Несколько месяцев назад была обновлена последняя версия инструмента аудита Lighthouse. Он содержит SEO-аудит, который рассматривает следующие пункты и оценивает их:

  • Документ имеет правильный `rel=canonical`.
  • Документ имеет `

Хотя мы узнали, что в среднем более 90% всех страниц соответствуют всем пунктам, не было никакой корреляции между высоким рейтингом и более высокими оценками. На самом деле, все выглядело несколько наоборот.

Затем мы посмотрели на результаты скорости страницы. Мы посмотрели на:

  • Первая задержка ввода (FID): время от момента, когда пользователь впервые взаимодействует с вашим сайтом, до момента, когда браузер успевает ответить.
  • First Contentful Paint (FCP): время с момента навигации до момента, когда браузер отображает первый фрагмент контента из DOM.
    … и общая скорость.

Результаты показывают, что страницы, занимающие верхние строчки рейтинга, немного быстрее, но большинство из них имеют средний или медленный рейтинг в целом, и средний для FID и FCP.

Выводы: Оптимизация с помощью обновленного PageSpeed Insights представляется хорошей практикой, но не ждите чудес для вашего рейтинга и не жертвуйте первоклассным пользовательским опытом и функциональными возможностями ради нескольких пунктов скорости страниц.

Очевидно, что существует множество других причин, по которым вы хотите, чтобы ваша страница была быстрой — например, улучшение конверсии и снижение показателя отказов.

#9 Другие наблюдения

Все вышеперечисленное — это лишь интересные или заслуживающие упоминания выводы, которые мы получили в ходе исследования. Однако в ходе исследования мы изучили целый ряд вопросов.

Например, мы хотели выяснить, влияет ли наличие видео в контенте на SERP или правда ли, что Google предпочитает страницы, использующие YouTube, другим видеоплатформам.

Ни одно из этих предположений не подтвердилось. По крайней мере, не в нашем анализе.

Мы также предположили, что слухи о том, что Google использует другой алгоритм для высокообъемных ключевых слов, являются правдой, и провели каждый анализ отдельно для разных объемов, но каждый раз получали схожие результаты.

Наконец, самое интересное, что мы увидели, и то, что Authority Hacker тоже заметил раньше: часто верхние результаты на второй странице, похоже, показывают схожие показатели с реальными страницами, занимающими верхние строчки рейтинга.

Например, схожая плотность ключевых слов, Ahrefs Domain Rank, распространенность HTTPS и так далее. Тем не менее, они никогда не попадали на первую страницу.

Похоже, в алгоритме Google существуют некоторые проблемы с доверием (возможно, EAT?) или тонкая грань между правильным ведением дел и спамом.

Заключительный вывод

Посмотрев на эти результаты, я думаю, что многие люди заинтересованы в том, чтобы SEO казалось чрезмерно сложным для поддержания статуса гуру.

Я действительно считаю, что многие мелкие технические моменты, такие как ключевое слово в url или скорость страницы, важны для чрезвычайно конкурентных запросов, где 1% преимущества может иметь решающее значение.

Но в большинстве случаев они не так важны, как думает большинство людей.

Исследование еще раз доказало, что Google проделывает огромную работу по определению релевантности, а когда выбор очевиден, он уделяет мало внимания техническим аспектам SEO.

Вы уже могли наблюдать это в исследовании Backlinko от 2016 года — обратите внимание, что в большинстве графиков первая позиция всегда показывает более низкие показатели.

Для всего контента, где SEO действительно играет роль, я думаю, ответ прост. Проведите исследование ключевых слов, создайте уникальный, высокоценный контент и продвигайте его, чтобы получить ссылки.

Иметь чистый сайт как с технической точки зрения, так и с точки зрения удобства пользования, и все будет в порядке.

Это становится немного сложнее, когда ваши сайты становятся очень большими и вам нужно организовать контент логичным образом.

Но, опять же, это не относится к большинству владельцев сайтов.

Люди склонны считать, что Google использует какие-то слишком сложные алгоритмы НЛП и ИИ, чтобы определить, какие страницы следует продвигать выше, а какие наказывать.

Я же считаю, что Google проделывает огромную работу по сбору, сортировке и организации невероятных объемов очень простых данных (таких как встречаемость ключевых слов и ссылок), поиску в них закономерностей и выводов.

Поэтому я бы сосредоточился на этих простых вещах.

Но это мое личное мнение, основанное на том, что я знаю о текущем состоянии технологий НЛП и ИИ — они гораздо более примитивны, чем люди думают.

Результаты данного исследования только укрепили это мнение.

Jimbo
Пишу всякое о Seo, сайтах, продвижении и прочей чепухе.