Slide1
Slide1
previous arrow
next arrow

Метка Ранжирование Google

Что такое ранжирование?

Новая система генерации заголовков

Ранжирование

Ранжирование в поисковых системах представляет собой упорядочивание веб-сайтов в результатах поиска по соответствующим запросам. Алгоритм определяет, какой сайт лучше отвечает потребностям пользователя и помещает его выше остальных конкурентов. Чем более полноценные ответы предоставляет ресурс, тем больше вероятность попасть в топ-результаты Яндекса или Google (от которых практически все поисковый трафик).

Факторы ранжирования

SEO-специалисты стремятся достичь наиболее высокого ранжирования своих сайтов в поисковых системах. Для этого нужно соблюдать множество факторов, оцениваемых при ранжировании, которых сейчас около 700.

Поисковики учитывают следующие факторы:

  • Возраст домена;
  • Ссылочная база;
  • Время загрузки;
  • Поведенческие факторы;
  • Регулярность обновления контента;
  • Внутренние факторы – структура, юзабилити.

Чтобы сайт достиг высоких позиций в поисковой выдаче, необходимо, чтобы его содержимое (текст и графика) включало ключевые слова и фразы из списка запросов, выбранного в качестве семантического ядра. Также важно, чтобы страницы сайта были связаны с продвигаемой фразой. Контент должен быть оригинальным и понятным для пользователей. Следует помнить, что поисковые алгоритмы умеют анализировать смысл текста, поэтому не стоит перегружать сайт ключевыми словами, так как это может привести к наказанию со стороны поисковика. В случае наличия ошибок, исправление их может потребовать значительных усилий для выхода сайта из санкций.

Контент необходимо регулярно дополнять и улучшать в соответствии с актуальными запросами пользователей. Регулярное обновление – залог того, что робот будет чаще «приходить» и анализировать сайт, а значит шансы занять вершину выдачи повысятся.

Ссылки до сих пор считаются важным фактором продвижения сайта. И если Google это учитывал всегда, то Яндекс после долгого перерыва вернул ссылочное ранжирование. Важно понимать, что нельзя в 2020 году бездумно закупать ссылки на бесполезных ресурсах. Весь ссылочный профиль делится на 2 части:

  • Внутренние ссылки – переходы с одной страницы сайта на другую, соответствующую теме (для этого делается перелинковка). С их помощью можно изменять ссылочный вес, а трафик перенаправлять на продвигаемые страницы.
  • Внешние или входящие ссылки – это упоминания сайта на других ресурсах. Это могут быть справочники, каталоги, а также SEO-ссылки. Последние должны закупаться только на ресурсах, которые по смыслу соответствуют продвигаемому сайту. Так можно избежать пессимизации, попадания под фильтры «Минусинск» от Яндекса или «Пингвин» от Google.

Мета-теги тоже являются факторами ранжирования. Важно грамотно прописать название страницы (Title), заголовок (H1) и описание (Description), которые будут отображаться в сниппете – так, как это увидит пользователь в поисковой выдаче. Тег keywords уже не учитывается, его заполнять необязательно.

Особенно важно настроить файлы для поискового робота – карту сайта (sitemap.xml) и robots.txt.

Грамотный дизайн и наличие мобильной версии повышают доверие со стороны пользователя, а значит поисковик считает такой сайт качественным.

Алгоритмы ранжирования в Яндексе и Googl

Основы алгоритмов поисковых систем — это информация, которая обычно не раскрывается публично. Стратегии и методы SEO-специалистов и поисковых систем часто находятся в постоянной конкуренции друг с другом. Крупные поисковики, такие как Яндекс и Google, предоставляют только общие рекомендации, подразумевающие, что сайты должны быть улучшены и сделаны более качественными.

Алгоритмы ранжирования, используемые поисковыми системами, постоянно меняются и дополняются по мере своего функционирования. Из-за этого сайты, которые раньше находились в верхней части поисковой выдачи, могут потерять свои позиции. В ответ на это, веб-мастерам приходится регулярно вносить изменения и улучшения на своих сайтах, чтобы противостоять этому снижению рейтинга.

Поисковые системы: что такое и как работают

Поисковая система (браузер)

Поисковая система — алгоритмы и реализующая их совокупность компьютерных программ, предоставляющая пользователю возможность быстрого доступа к необходимой ему информации при помощи поиска в обширной коллекции доступных данных.

Общие понятие о браузере

Поисковая система обеспечивает пользователей функционалом, позволяющим получить доступ к контенту в интернете. Она служит для просмотра выбранных веб-страниц. С помощью браузера можно найти нужные сведения, пообщаться с друзьями в социальных сетях, посмотреть фильмы и сериалы, купить товары и многое другое. Первая поисковая система появилась в 1989 году.

Как работает поисковая система

У каждой поисковой системы — свой алгоритм работы, который держится в строгом секрете. Однако условно весь процесс подбора нужной информации поисковиком можно разделить на три этапа: сканирование (поиск и сохранение страниц), индексация и ранжирование.

  •  Сканирование

Чтобы поисковая система смогла найти нужную информацию в большом количестве сайтов, эти сайты должны быть ей известны, то есть прочитаны и сохранены в памяти.

Можно сравнить с библиотекой: если вы не знаете, какие книги стоят на полках и никогда не заглядывали в них, то вероятность того, что вы быстро сориентируетесь и найдете нужную цитату, равна нулю.

Поисковая система узнает о содержимом сайтов с помощью специального робота — краулера, или паука. Название происходит от английского crawler (ползающее насекомое, ползунок). Робот обходит все страницы, переходит по ссылкам и постепенно охватывает миллиарды веб-страниц в сети, сохраняет их и отправляет на индексацию.

  • Индексация

Следующий этап — подробный анализ загруженных страниц и добавление информации о том, какие сведения в них содержатся, в базу поисковой системы (создание индекса).

Индексный робот разбивает каждую сохраненную страницу на части (заголовки, текст, ссылки, теги html и т.д), изучает их содержимое, переваривает и структурирует. В результате получается упорядоченный список адресов страниц и размещенной на них информации.

По аналогии с библиотекой недостаточно знать, какие книги есть на полках. Важно составить подробный и удобный каталог, который расскажет, в каких книгах и на каких страницах искать нужную информацию.

Пока страница не проиндексирована, для поисковика она не существует. Поэтому важно, чтобы сайт был открыт для индексации. При необходимости можно закрыть от поисковых роботов отдельные страницы, например личный кабинет и корзину, чтобы они не попали в выдачу.

  • Ранжирование и поисковая выдача

Когда человек вводит запрос в поисковую строку, поисковик выбирает все страницы, которые имеют отношение к запросу, прогоняет их через свои алгоритмы и выдает список сайтов в определенном порядке. При этом чем выше сайт оказался в выдаче, тем лучше он соответствует запросу пользователя и требованиям поисковика.

Процесс сортировки сайтов по определенному списку критериев называется ранжированием. На результаты ранжирования влияет релевантность контента запросу, качество и удобство сайта, его технические и пользовательские характеристики и многое другое. Точный список критериев поисковые системы держат в секрете и постоянно обновляют свои алгоритмы.

По итогам ранжирования можно получить разные результаты поисковой выдачи:

  • в разных поисковиках, так как используются различные критерии фильтрации;
  • в разных регионах, так как в запросах учитывается местонахождение пользователя;
  • на разных устройствах — в десктопной и мобильной версии, так как имеет значение удобство использования сайта на разных устройствах;
  • по одинаковым запросам у разных пользователей, так как учитывается индивидуальная история поиска.

Ряд востребованных поисковых систем

  • Google Chrom — самый популярный браузер в мире, который используют более 70% пользователей. Он быстрый, удобный и безопасный. Поддерживает синхронизацию между устройствами, имеет множество расширений для улучшения функциональности.
  • Yandex Browser — поисковая система популярная в России, имеющая высокую скорость работы и удобный интерфейс. Обладает функцию синхронизации, защиты от мошенничества и переводчик. Есть встроенная нейросеть.
  • Mozilla Firefox — популярная поисковая система, которая отличается своей безопасностью и стабильностью. Имеет функцию многоязычности и встроенный переводчик. Обладает большим набор дополнений.
  • Microsoft Edge — браузер, разработанный компанией Microsoft. Он отличается высокой скоростью работы и безопасностью. Обладает встроенным магазином приложений, где можно найти множество полезных расширений.

Новые рекомендации Google по тегу title

Новые рекомендации Google

Новые рекомендации Google по тегу <title> появились в блоге для разработчиков, который посвящен управлению ссылками-заголовками в поисковой выдаче. Там же можно найти и пояснения по замене поисковиком ссылок тайтлов.

Каждый title в поисковых результатах отображается как ссылка-заголовок. Как правило ее текст образуется ПС в соответствии с тегом <title>, однако, может быть использована информация и из других источников.

Для поддержания высокого уровня информативности тегов <title> специалисты компании Google рекомендуют соблюдать следующие правила:

  1. тег <title> должен использоваться на каждой из страниц сайта;
  2. тайтлы должны быть максимально короткими (потому что длинные тексты могут быть сокращены в выдаче) и информативными, не содержать в себе общие формулировки;
  3. не злоупотреблять ключевыми словами, так как это может быть расценено поисковиком как спам;
  4. не использовать повторяющиеся и шаблонные тексты. тексты каждого из тайтлов должны быть уникальными;
  5. умеренно применять в тегах <title> элементы бренда, без злоупотребления ими;
  6. тщательно следить за своими ограничениями для роботов поисковых систем. Та или иная страница сайта может быть проиндексирована, если на каком-либо другом ресурсе будет найдена ссылка на неё. Однако, при ограничении доступа к данной странице в файле robots поисковику не удастся найти необходимый контент. В результате робот будет вынужден обратиться к внешней информации для того чтобы создать ссылку-заголовок. Для запрета индексирование конкретного URL-адреса специалисты компании рекомендуют применять тег <noindex>.

Вслед за этим Google рассказывает о создании ссылок-заголовков в Поиске. Как правило, она формируются в автоматическом режиме на основании контента, который содержит страница, а также ссылок на неё с других ресурсов.

В процессе создания заголовков в результатах поиска источником могут послужить тексты, которые содержатся в тегах <title>, основные заголовки страницы, заголовки и подзаголовки (к примеру, тег H1), а также другие заметные тексты, которые выделены стилистически, тексты ссылок, расположенных на странице, информация в ссылках, указывающих на данную страницу.

Кроме того, новые рекомендации Google появились и о том, как миновать проблемы с тегами <title>.

При обнаружении вебмастерами отличия ссылок-заголовков в поиске от текста в теге <title> требуется проверка тегов на наличие проблем. Если таковых не имеется, то наиболее вероятно, что ссылку-заголовок подобрали для максимизации соответствия запросу. Если вы в теге <title> всё-таки хотите видеть исходный текст, то необходимо сообщить об этом в Google через справочный форум Центра Google Поиска.

Rel=canonical или noindex — советы от Google

rel=canonical или noindex

Rel=canonical или noindex — советы от Google о том, как сделать правильный выбор. На подобный вопрос ответ дал специалист компании Джон Мюллер в ходе видеовстречи для вебмастеров, которая состоялась недавно. Также он рассказал, когда может быть целесообразным применение данных вариантов одновременно.

Джону Мюллеру задали вопрос, связанный с работой с неуникальным (дублированный) и малоинформативным контентом e-commerce сайтов. Задающий вопрос человек пояснил, что на его сайте есть много товаров с таким контентом. Также он рассказал, что у него уже есть список всех страниц, которые необходимо сохранить для индексации, а также и тех, которые индексировать будет не нужно. После этого он спросил, что лучше: rel=canonical или noindex.

Специалист компании Google в ответ сказал, что в таком случае уместен может быть как один, так и другой вариант. Решающее значение здесь имеет задача, решение которой предстоит. Если необходимо , чтобы контента в поиск не было вообще, то для этого больше подойдёт noindex. А в случае, когда нужно только объединить все сигналы на одной странице, без исключения показа отдельных URL, больше подходит уже rel=canonical.

Эффекты в том и другом случае будут похожими в том, что спорной страницы, наиболее вероятно, в поиске показано не будет: с noindex — точно, а с rel=canonical такая вероятность достаточно высока.

Однако, есть и еще один вариант, который подразумевает одновременное совместное использование noindex и rel=canonical. Тогда, при условии указания на данную страницу внешних ссылок, Google будет знать о нежелании клиента индексации страницы, но, в то же время, он установил желаемый вариант, пригодный для показа в поисковой выдаче.

То, какое решение будет выбрано, будет зависеть от желания владельца сайта: удостовериться, что страницы в поиске не появится, или собрать все сигналы (ссылочные и релевантности) на одной странице.

Cигнал Page Experience Google скоро заработает на десктопах

Cигнал Page Experience

Cигнал Page Experience Google планирует запустить в десктопной версии поиска в феврале следующего, 2022 года. С этих пор сигнал будет влиять на ранжирование не только мобильных страниц, но и десктопных.

Данное нововведение компания анонсировала еще в ходе конференции Google I/O в текущем году. Официальный анонс теперь появился и в блоге корпорации.

Старт развертывания разработки запланирован на февраль, а завершение — на конец марта 2022.

Проверяться будут сигналы десктопных страниц, аналогичные мобильным версиям. Среди них CLS, FID, LCP. Также влияние будут иметь  факты наличия защищенного соединения HTTPS и отсутствия объявлений между страницами, работающих навязчивым образом.

В целях помощи владельцам сайтов в подготовке к нововведениям разработчики проведут обновление инструментов и отчетов в Search Console. В компании подчеркнули, что новый отчет появится раньше, чем в десктопный поиск будет введён сигнал Page Experience

Специалисты компании считают, что в выдаче никаких масштабных изменений не произойдет.

Cигнал Page Experience был введён в мобильный поиск Google в конце лета ткущего года. Вместе с этим разработчики заявили, что апдейт Page Experience может прийти на смену предыдущим Speed Update.

Новая система генерации заголовков в SERP

Новая система генерации заголовков

Новая система генерации заголовков в SERP была изменена Google.

Усовершенствования были разработаны с учётом мнений SEO-специалистов.

Подробностями о работе новой системы корпорация поделилась в своём блоге. По словам Google, отныне информация из исходных тегов title будет использоваться в 87% случаев, а не в 80%, как раньше.

Также компания пояснила о том, что система прибегает к использованию другого текста тогда, когда страница плохо описывается элементами title. Ещё бывает так, что у одних страниц данные теги пустые, у других повторяются, а у третьих они вообще отсутствуют. Этим обусловлено то, почему поисковая система сама создаёт заголовки для данных страниц.

  • Если теги title полупустые, то будут использованы теги заголовка либо иной заметный текст. К примеру, вместо «| Site Name» будет «Product Name | Site Name».
  • Заголовки title могут устаревать. Такое случается, когда информация используется на протяжении нескольких лет, но в заголовки был указан какой-либо год. В результате, к примеру,  вместо «2020 admissions criteria — University of Awesome» будет «2021 admissions criteria — University of Awesome».
  • Содержание страницы может сильно отличаться от её заголовка. В результате, к примеру, вместо «Giant stuffed animals, teddy bears, polar bears — Site Name» будет «Stuffed animals — Site Name».

По-прежнему, ознакомиться с основными рекомендациями владельцы сайтов могут в справочном руководстве. Наиболее важно создавать качественные теги title.

В августе заработала новая система формирования заголовков в SERP. Поисковая система стала подменять title на теги H1 и H2 в поисковой выдаче.

Падение органического поискового трафика — пояснения Google

Падение органического поискового трафика

Падение органического поискового трафика случается из-за нескольких факторов, большинство из которых возможно исключить. Компания Google рассказала о 5 причинах, которые могут вызвать данное падение, а также об использовании отчёта об эффективности Search Console и Google Trends для отладки трафика из поиска

Причины.

Причинами могут послужить:

  • технические проблемы. Речь здесь идёт об ошибках, способных мешать сканированию, индексированию и обслуживанию страниц поисковиком.
    Они могут иметь как частный (то есть распространяются на страницу), так и общий характер (распространяются на весь сайт. Например, сайт вообще не работает);
  • проблемы с безопасностью. Под этим понимаются проблемы в виде вирусов, взломов, фишинга;
  • ручные санкции. Когда сайт не отвечает рекомендациям Google;
  • изменения в алгоритмах. Работа некоторых страниц в поисковой выдаче может быть изменена обновлениями ядра и другими мелкими апдейтами;
  • смена спроса пользователей. Спрос может меняться в соответствии с новыми трендами и сезонностью. Также это может быть результатом  влияния извне.

Анализ схемы падения трафика в поиске.

Чтобы понять, что произошло, лучше всего воспользоваться диаграммой отчёта Search Console Performance.

В Google рекомендуют к просмотру отчёт «Эффективность поиска», а также попытаться сделать следующее:

  • поменять даты так, чтобы в их диапазон входило 16 месяцев. Это позволяет провести анализ падения трафика в контексте и понять, повлияли ли на это ежегодные праздники или сезонные тренды;
  • сверить временной интервал падения с аналогичным интервалом. В обязательном порядке нужно просмотреть информацию на всех вкладках. Это даст понимание о том, поменялось ли что-либо по отношению только к определенным запросам, URL-адресам, странам, устройствам или поисковым запросам. Также нужно убедиться, что сравнение проходит по одинаковому количеству дней, лучше всего по одним и тем же дням недели;
  • Анализировать различные типы поиска, среди которых веб-поиск, поиск по картинкам Google, вкладкам видео или новостей, нужно отдельно.

Если выясняется, что падение органического поискового трафика произошло из-за технических проблем, проблем безопасности или ручных санкций, специалисты Google рекомендуют прочитать расширенные руководство по Search Console, чтобы найти способы их решений.

Изучение отраслевых трендов

Google Trends позволяет разобраться, стали ли причиной падения какие-либо новые тренды или это произошло только с одним сайтом. С помощью данного сервиса пользователь может увидеть практически неотфильтрованную выборку реальных поисковых запросов, которые были сделаны в Google. Информация в Google Trends анонимизирована, категоризирована и агрегирована. Благодаря этому Google может интересоваться как мировыми темами, так и темами городского уровня.

Специалист Google описал ранжирование

Специалист Google описал ранжирование

Специалист Google описал ранжирование системой результатов поиска в рамках очередного подкаста «Search Off The Record».

По словам Гэрри Илша, процесс начинается с сокращения числа страниц, которые можно ранжировать по определенному запросу, до относительно малого списка, размером, к примеру, около тысячи страниц.

Перед созданием такого списка алгоритм проводит проверку актуальности и релевантности по запросу и содержанию страницы. После этого поисковая система специальным методом создаёт список в обратном порядке, а также исключает то, что перечислить не может.

Следующий шаг — применения к получившемуся списку, как выразился Гэрри Илш, «магических сигналов» ранжирования, с помощью которых список формируется в более подходящем виде в соответствии с запросом пользователя. На данном уровне, отметил специалист Google, и случается «настоящая магия ранжирования»

Примерами «магических сигналов» могут выступить RankBrain и HTTPS.

Ранжирование сокращенного списка.

Из слов Илша, дальше основой для ранжирования служат числа. Каждый из результатов получает тот или иной балл. Он определяется на основе сигналов, которые были собраны при индексировании, а также других сигналов. Результаты поиска, которые видит пользователь, являются списком, ранжированным на основе чисел и баллов, которые получили результаты поиска.

«Магические сигналы», как RankBrain, увеличивают в определенное число раз баллы каждого результата. Для удаления того или иного результата из набора Google достаточно произвести умножение его баллов на 0.

Такой подход минимизирует вероятность получения одинаковых баллов страницами. Еще Гэрри Илш отметил, что HTTPS, который считается одним из «магических сигналов», является решающим фактором. На ранжирование он влияет слабо.

В свою очередь, решающие факторы не вступают в силу и не меняют результаты поисковой выдачи до тех пор, пока не возникает «ничья». В таком случае они задействуются для понимания того, какой из результатов показать.