Это только со стороны жизнь оптимизатора может показаться скучной. На самом деле, наша работа интересна и разнообразна – мы анализируем алгоритмы и боремся с санкциями, мы находим общий язык с ботами и клиентами, мы умеем толковать кофейную гущу и правильно держать бубен. Давайте сегодня забудем все огорчения и вместе вспомним самые яркие моменты из нашей жизни. С 1 апреля!

В июле-октябре мы с командой Сайтклиники (офисной и дистанционной) сделали около 50 SEO-аудитов. Больше половины проблем, с которыми к нам обращались, было связано с фильтрами Яндекса, также были аудиты по фильтрам Google.

Очевидно, что антиспам-алгоритмы, отправляющие сайты под санкции, заметно эволюционировали. Eще года полтора назад для определения причин пессимизации было достаточно даже поверхностного анализа – сайты отправлялись под фильтры за явные признаки переоптимизации или явно некачественный контент. Все было просто – чистишь контент от лишних выделений, заголовков, спамовых конструкций и перечислений ключевывых слов, уникализируешь контент – и санкции снимаются.

А теперь все чаще встречаются случаи, когда причины санкций не являются столь очевидными. К нам постоянно обращаются владельцы пессимизированных сайтов, которые по несколько месяцев не могут избавиться от фильтров, несмотря на многоразовую “чистку” контента и длительную переписку с Платонами. И тексты вроде бы уже совсем не содержат переспама, и сайт вроде уже совершенно белый и пушистый, а поддержка все равно отвечает: “причина, по которой на Ваш сайт были наложены санкции, еще не устранена”.


Ничто не вызывает у клиентов столько вопросов и возмущения, как замечания по поводу текстов на сайте.

Большинство сайтовладельцев ассоциируют качество контента сугубо с уникальностью текстов. Если текст уникален и содержит все важные для заказчика ключевики – это хороший текст. И не важно, что копирайтер называет слона бегемотом или пишет что в Африке водятся пингвины – “ВЕДЬ ЭТО ЖЕ СТОПРОЦЕНТНЫЙ КОПИРАЙТ”!

Такие тексты отпугивают посетителей, портят репутацию сайта в глазах потенциальных клиентов, ухудшают ПФ. И да, приводят к риску пессимизации как неявный признак переоптимизации контента. Поэтому все сайты, которые приходят к нам с такими “шедеврами”, мы в первую очередь заставляем избавляться словоплетства и делать нормальный контент. В большинстве случаев это не только делает возможным нормальное продвижение, но и сразу дает эффект в плане улучшения видимости сайта и повышения конверсии. Ниже – основные принципы, которых должны придерживаться сайтовладельцы при подготовке контента для коммерческих сайтов.

Время от времени мои коллеги из других SEO-компаний просят меня показать шаблоны или примеры аудитов, которые делает наша студия. Но, во-первых, шаблонов как таковых у нас нет, потому что каждый анализ мы делаем по индивидуально разработанному плану, а во-вторых, все отчеты по аудитам у нас строго конфиденциальны и не выставляются напоказ.

Но я с удовольствием поделюсь списком основных требований, которых мы придерживаемся при проведении аудитов. Эти принципы направлены на то, чтоб сделать даже очень сложный отчет по аудиту максимально понятным клиенту и соответствующим его ожиданиям. Как показывает опыт, после изучения таких отчетов у большинства заказчиков почти не остается дополнительных вопросов.

Количество компаний, которые желают продавать свои товары через интернет, растет с каждым годом приблизительно на четверть. Соответственно, семимильными шагами растет и уровень конкуренции среди интернет-магазинов, желающих получать клиентов из поиска. Владельцы магазинов выделяют завидные рекламные бюджеты на раскрутку своего детища, надеясь на быструю окупаемость, а большинство оптимизаторов лезут со шкуры вон, только бы засунуть клиентский магазин в топ и вздохнуть с облегчением, что не придется возвращать деньги за неудачное продвижение. Интересно, что после попадания сайта в топ в большинстве случаев старания обеих сторон заканчиваются – оптимизаторы выполнили официальные обязательства, а клиент начал получать кое-какой трафик из поиска, увидел надежду на окупаемость и успокоился.

Но эффект от нахождения сайта в топе можно повысить в несколько раз с помощью оптимизации сниппетов. Чем привлекательнее сниппет, тем больше посетителей перейдут на сайт именно этого магазина и купят товар именно тут, а не у соседа по топу. Для оптимизаторов здесь есть своя выгода – уже давно не секрет, что CTR сайта в выдаче влияет на ПФ и позиции сайта (хороший CTR может закрепить позиции).

Качественный коммерческий сайт с лаконичными текстами для людей, уникальными описаниями всех товаров и отобранными вручную дорогими ссылками «залип» на 2-3 странице и не двигается в Топ – думаю, такая проблема знакома многим оптимизаторам, которые работают с коммерческими тематиками. Судя по форумам, переписке с читателями и описанием ситуаций по сайтам, которые приходят на аудит, большинство оптимизаторов в таких случаях действуют по обычной схеме – в очередной раз меняют тайтлы, переписывают тексты, корректируют перелинковку, докупают ссылки. При этом забывается один важный момент – в коммерческой выдаче могут учитываться факторы, не имеющие прямого отношения к SEO, на которые, как правило, никто из оптимизаторов не обращает особого внимания. Еще в ноябре прошлого года на блоге Яндекса упоминалась формула ранжирования, которая умеет учитывать факторы, влияющие на доверие пользователя к сайту компании. Изначально формула работала для около 30% коммерческих запросов в московской выдаче, а сейчас, по нашим наблюдениям, этот процент значительно увеличился.
За три последних месяца я достаточно наигралась со «сложными ситуациями» по коммерческим запросам и окончательно убедилась, что при продвижении интернет-магазинов и других коммерческих сайтов особенную роль играют факторы, которые отсутствуют в чек-листах оптимизаторов. Сегодня делюсь своими наблюдениями по этому поводу.

Поведенческие факторы (факторы, отображающее отношение пользователей к сайту) – это одна из самых популярных сейчас тем на SEO-блогах и форумах. Эта тема во многом напоминает мне тему траста – как и траст, ПФ представляются некими загадочным показателями (группой показателей), которые нужно повышать для того, чтоб сайт занимал хорошие места в выдаче. Но что именно необходимо повышать и, тем более, как измерять ПФ, никто точно сказать не может. И, тем не менее, в Рунете каждую неделю появляется с десяток новых «аналитических» статей о ПФ со стандартным набором рекомендаций: чтоб улучшить поведенческие факторы, нужно снизить процент отказов, повысить количество просмотров страниц и длину сессии. Объясню, почему я не следую этим рекомендациям и вам не советую.

Без вступлений и аннотаций хочу показать 2 кейса по повышению трафика из Яндекса без использования покупных ссылок. Достижения нельзя назвать космическими, но тем не менее это наглядные примеры, что не ссылочным единым можно повышать трафик по НЧ.

Наличие внутренних дублей страниц может привести к ошибкам индексации сайта и даже свести на нет результаты продвижения. К примеру, если у продвигаемой страницы есть дубли, после очередного апдейта один из них может заменить в выдаче нужную страницу. А это обычно сопровождается существенным проседанием позиций, так как у дубля, в отличие от продвигаемой страницы, нет ссылочной массы.

Меня часто спрашивают, какими сервисами я пользуюсь для определения уровня конкуренции запросов. На самом деле, я использую такие сервисы только в случаях, если достаточно приблизительных данных или нужно оценить хотя бы “на глаз” большое количество запросов за несколько минут. Для таких задач вполне подходит этот сервис.

Но если мне при составлении семантического ядра нужно определить конкурентность запросов, чтоб точно спрогнозировать трудозатраты на их продвижение, я анализирую каждый запрос вручную.

У каждого SEO-специалиста есть своя методика оценки конкурентности запросов. Поделиться своими методами решения этой задачи согласился Сергей Кокшаров – автор Seo-блога Devaka.ru, главный редактор портала Optimization.com.ua и один из самых известных SEO-экспериментаров рунета. Дальше – прямая речь Сергея.