Поисковые алгоритмы


Поисковый алгоритм – это программная формула, которая использует ключевые слова пользователя как исходные данные, возвращая ему поисковую выдачу из релевантных сайтов в качестве результата. Именно поисковый алгоритм «решает», как выстраиваться сайтам по каждому запросу, какие сайты попадают в топ. Формула поискового алгоритма – коммерческая тайна каждой поисковой системы. Точно разгадать формулу невозможно, но работа над анализом алгоритма и определение основных влияющих факторов – обязательная задача каждого оптимизатора. Предпринимать любые действия с сайтом без представления об алгоритме – все равно, что тыкать пальцем в небо.

Алгоритмы поисковиков сразу после их появления были очень примитивными и учитывали только внутренние факторы, тобишь содержание сайта, МЕТА-теги. Оптимизатору не составляло особого труда добраться до топа – для этого надо было всего лишь добавить в текст как можно больше ключевых слов любым образом (например, белым шрифтом на белом фоне). Потом алгоритмы были усложнены внешними факторами – начали учитываться ссылки на сайт. Задача для оптимизаторов стала сложнее, но не надолго – научились «добывать» ссылки разными способами, появился рынок линкоторговли. Постепенно алгоритмы усложнялись все больше и больше, вводились различные дополнительные фактор и понижающие фильтры.

Отступление в тему….
Извращенец Яндекс с некоторых пор даже начал давать названия разным версиям своих алгоритмов. Первым «именованным» алго был “Родео” – летом 2007 года. (точнее так его обозвали сами оптимизаторы из-за топика на форуме, созданного Садовским – Что наша жизнь? Родео!). После двух безымянных «паков», последовал в мае 2008 “Магадан”, а за ним в июле 2008 (практически через год после Родео) – “Магадан 2.0″. В сентябре 2008 миру открылась “Находка”. До следующей остановки, “Анадыри”, еще не доехали.

Алгоритмы имеют свойство время-от-времени меняться. Многие оптимизаторы жалуются – только “раскусил” текущий алгоритм, как уже ввели новый.

Сейчас алгоритмы большинства развитых поисковиков анализируют и учитывают такие основные факторы:

Из внутренних – наличие (плотность) ключевых слов, оригинальность контента, внутренняя перелинковка, наличие слов в мета-тегах (тайты и кейвордсы), выделения html-атрибутами.

Из внешних – те же ссылки. НО не просто их количество, а также: качество доноров, анкоры и тошноту (читай – плотность) фразы в анкор-базе, темпы прироста ссылок.

Поисковые алгоритмы разные для разных поисковых систем, и то, что хорошо для Гугл, может оказаться неприемлемым для Яндекса. Так что семь раз отмерь – один раз отреж.

Просмотров: 3,094