Поисковые системы постоянно стремятся повысить свою эффективность, предоставляя наилучшие результаты. В то время как понятие "лучший" субъективно, поисковые движки имеют очень хорошее представление о видах страниц и сайтов, которые удовлетворяют требованиям. Как правило, эти сайты имеют несколько общих черт:

  • Легкие в использовании, навигации, и понятны.
  • Обеспечивают доступ к прямой, полезной информации, имеющей отношение к запросу.
  • Профессионально разработанный и доступный для современных браузеров интерфейс.
  • Законный контент высокого качества.

Несмотря на удивительные технологические достижения, поисковые системы пока не могут понять текст, просматривать изображения или видео точно так же как может человек. Таким образом, для того, чтобы понять содержание, они полагаются на метаинформацию (не обязательно мета-теги) о сайтах и страницах при ранжировании контента. Веб-страницы не существует в вакууме - реальные люди взаимодействуют с ними. Поисковые системы используют данные, чтобы "наблюдать", как люди работают с веб-страницами, и это дает им невероятные знания в отношении качества самих страниц.

Воздействие юзабилити и опыта пользователей.

На ранжирование страниц.

Есть ограниченное число переменных, которые поисковые системы могут учитывать непосредственно, в том числе ключевые слова, ссылки и структура сайта. Вместе с тем, связывающие модели, привлечение пользовательских метрик и машинное обучения, оставляют поисковой системе большое количество интуитивной информации о данном сайте. Юзабилити и опыт пользователей учитываются «вторым порядком» при ранжировании. Они обеспечивают косвенную, но измеримую пользу внешней популярности сайта, который система может интерпретировать как сигнал высокого качества. Это называется явлением: "никто не любит связаться с плохим сайтом".

Вдумчивый отбор и чуткий пользовательский опыт могут гарантировать, что ваш сайт воспринимается положительно теми, кто его посещает. Учитываются обмен, добавление в закладки, ответные визиты и ссылки - сигналы, которые просачиваются в поисковые системы и способствуют повышению рейтинга сайта.

Черты качественного контента.

  1. Метрики

    Когда поисковая система показывает вам страницу результатов, она может измерить свой успех, наблюдая, как вы взаимодействовуете с этими результатами. Если вы перешли по первой ссылке и сразу нажали кнопку "назад", чтобы попробовать вторую ссылку, это означает, что вы не были удовлетворены первым результатом. С самого начала поисковые системы стремятся найти "длинный щелчок" - где пользователи нажимают на результат без немедленного возврата на страницу поиска, чтобы попробовать еще раз. Взятые в совокупности на протяжении миллионов и миллионов запросов в день, поисковые системы создают хороший пул данных для оценки качества своих результатов.

  2. Машинное обучение

    В 2011 Google представила Panda, обновление для своего алгоритма ранжирования, существенно изменяя способ проверки качества сайтов. Google начал с использования ручных человеческих оценок, чтобы оценить тысячи сайтов в поисках контента "низкого качества". Затем были включены механизмы машинного обучения, чтобы имитировать человеческие оценки. После того, как убедились, что компьютеры могут точно предсказать то же, что и люди при своих оценках, алгоритм был введен для миллионов сайтов, охватывающих интернет. Конечный результат был сейсмическим сдвигом, который перестраивает более 20% всех результатов поиска Google.

  3. Ссылочные шаблоны

    Поисковые системы обнаружили на ранней стадии, что структура ссылок в сети может служить в качестве шаблона для голосов и популярности – сайт с контентом высокого качества заработал больше ссылок, чем сайты с менее полезным содержимым. Сегодня, алгоритмы анализа ссылок значительно продвинулись, но эти принципы работают и сейчас.