Как вывести сайт из-под фильтра: 8 нестандартных кейсов


В июле-октябре мы с командой Сайтклиники (офисной и дистанционной) сделали около 50 SEO-аудитов. Больше половины проблем, с которыми к нам обращались, было связано с фильтрами Яндекса, также были аудиты по фильтрам Google.

Очевидно, что антиспам-алгоритмы, отправляющие сайты под санкции, заметно эволюционировали. Eще года полтора назад для определения причин пессимизации было достаточно даже поверхностного анализа – сайты отправлялись под фильтры за явные признаки переоптимизации или явно некачественный контент. Все было просто – чистишь контент от лишних выделений, заголовков, спамовых конструкций и перечислений ключевывых слов, уникализируешь контент – и санкции снимаются.

А теперь все чаще встречаются случаи, когда причины санкций не являются столь очевидными. К нам постоянно обращаются владельцы пессимизированных сайтов, которые по несколько месяцев не могут избавиться от фильтров, несмотря на многоразовую “чистку” контента и длительную переписку с Платонами. И тексты вроде бы уже совсем не содержат переспама, и сайт вроде уже совершенно белый и пушистый, а поддержка все равно отвечает: “причина, по которой на Ваш сайт были наложены санкции, еще не устранена”.

Истинная причина в таких случаях всегда заключается в одном и том же – вебмастера вкладывают в понятие “качество сайта” совсем иной смысл, чем разработчики поисковых алгоритмов. Вебмастера, как правило, зацикливаются на сугубо технических характеристиках – уникальности текстов, плотности ключевых слов, внутренней оптимизации и т.д. А разработчики поиска стараются настроить алгоритмы таким образом, чтоб оценивать качество с точки зрения ценности сайта для пользователей.

Сегодня я расскажу о нескольких интересных случаях из нашей практики, когда причины пессимизации приходилось искать не там, где обычно. Возможно, кому-то это поможет взглянуть на проблему со своим сайтом с другой стороны и избавиться от санкций.

Кейсы по фильтру за переоптимизацию

Принято считать, что этот фильтр накладывается за явные признаки переоптимизации сайта (стронги, заголовки, спамовые конструкции), но это не всегда так. Фильтр за переоптимизацию накладывается, если страница содержит явные признаки оптимизации под запросы, на которые в действительности она ответа пользователям не дает.

1. Случай с несоответствием контента ожиданием посетителей


У сайта компании, предоставляющей услуги по оформлению помещений для праздников, резко снизился трафик. Владелец сайта обратился к нам, ответ Яндекса подтвердил наличие санкций.

Мы проанализировали данные GA и заметили, что у большинства страниц трафик снизился на 20-50%, но есть и такие, которые полностью потеряли посетителей из Яндекса:

Мы проанализировали эти страницы и заметили, что их содержание явно не соответствует очевидным ожиданиям посетителей. Например одна из страниц до пессимизации стабильно получала трафик по СЧ-запросам со словами “фото”, “фотографии”, “фотогалерея” (“название услуги + фото” , “название услуги + фотогалерея” и т.д.). Очевидно, что до наложения фильтра по этим запросам страница находилась в топе Яндекса.

Проблема в том, что страница не содержала никаких изображений. Там был только текст, где встречались указанные слова – например, предлагалось пройти регистрацию, чтоб получить на email фотографии работ в виде pdf. Судя по проценту отказов (97%), пользователей, которые переходили из выдачи Яндекса, это явно не устраивало. Не получая ожидаемого (готовых фотографий), они покидали страницу и возвращались к результатам поиска.

Такие же проблемы были со страницами, которые ранее получала трафик по СЧ со словами “каталог”, “цены”,”стоимость”, “скидки” (“название продукта + каталог”, “продукт + цены” и т.д.). На посадочных страницах и на сайте вообще не было ни каталога, ни информации о ценах и скидках – был просто текст, где встречались эти слова. Средний процент отказов у таких страниц составлял 94,6%.

По результатам аудита, было сделано следующее:
– на большинстве проблемных страниц полностью заменили контент. Вместо текстов разместили фотографии работ с кратким описанием, цены на продукцию (для оформления), каталог;

– две страницы, содержание которых было невозможно изменить, просто удалили.

После этого написали в Яндекс, и фильтр был снят.

Вывод: причиной пессимизации может стать несоответствие контента ключевому слову, по которому есть много переходов из выдачи. Посмотрите на свою статистику по Я.Метрике или GA и обратите внимание на запросы, генерирующие заметный процент трафика, у которых при этом высокий процент отказов. Если предполагается, что по этим запросам пользователи должны задерживаться на странице, пересмотрите контент.

2. Случай с нерелевантностью сайта группе ключевых запросов.


Под фильтр попал некоммерческий женский портал (обзоры косметики, новости моды, статьи по женской психологии и т.т.). Сайт 1998 года, посещаемый и достаточно известный. Нельзя сказать, что к контенту не было никаких нареканий – мы нашли много “позаимствованных” статей, внутренних дублей и полупустых страниц. Но, как правило, для сайтов такого уровня это всего-лишь “мелкие грешки”, которые вряд ли могут стать причиной наложения санкций.

При анализе источников посетителей, мы заметили резкий скачек трафика незадолго до момента пессимизации. При детальном рассмотрении оказалось, что скачек произошел за счет переходов из выдачи Яндекса по коммерческим запросам со словами “купить”, “доставка”, “заказать”, “продажа” и т.д. Это было само по себе странно, так как сайт ничего не продавал.

Клиент объяснил, что за несколько месяцев до пессимизации штатные оптимизаторы решили продвигать сайт по коммерческим запросам с целью поднять конверсии в лид-системах (считается, что коммерческий трафик конвертируется лучше). Подобрали список ключевиков, часть из них раскидали по существующим страницам, для некоторых создали новые. Поскольку сайт трастовый, трафик по таким запросам появился практически сразу. Но в результате это привело к увеличению отказов, ухудшению ПФ и наложению фильтра.

По результатам аудита было сделано следующее:
– со страниц сайта убрали вхождения коммерческих запросов;

– сайт почистили почистили от дублей и неуникального контента, исправили ошибки внутренней оптимизации;

– разработали альтернативную стратегию повышения окупаемости сайта.

В результате фильтр сняли через месяц после повторной модерации, и сейчас сайт активно наращивает целевой трафик согласно разработанной стратегии.

Вывод: причиной фильтра может послужить принципиальное несоответствие сайта целой группе ключевых запросов. Не стоит продвигать свой сайт по запросам, которым он не релевантен в принципе.

3. Случай со страницами, “заточенными” под ключевики.


Сайт клиента, о котором идет речь, на момент обращения к нам находился под фильтром уже около полугода. За это время клиент уже несколько раз полностью переписывал контент посадочных страниц и вносил изменения на сайт с целью избавиться от признаков переоптимизации, но это не помогало. Перед тем, как обратиться к нам, он в очередной раз “почистил” сайт, оставив в тексте каждой посадочной страницы только одно вхождение ключевого слова. Оказалось, что этого недостаточно – поддержка Яндекса в который раз ответила, что причина пессимизации не устранена.

Мы проанализировали все страницы сайта. Действительно, с точки зрения. SEO все было нормально: мета-теги прописаны вручную, тексты были уникальны и легко читались, заголовок (h1) на каждой странице встречался только один раз, внутренняя перелинковка не содержала признаков переспама.

Но наше внимание привлек другой нюанс – содержание URL, Title и H1 каждой посадочной страницы содержало ключевую фразу, плюс этот же ключевик обязательно встречался один раз в тексте, и всегда – именно в первом абзаце.

Например, страница, продвигаемая по запросу “Разведение сиреневых слонов”, на этом сайте выглядела бы так:

URL: www.siteoslonah.ru/razvedenie-sirenevyh-slonov/
Title: Разведение сиреневых слонов в Москве – Siteolinah.ru
H1: Разведение сиреневых слонов
Текст (первое предложение): “Мы занимаемся разведением сиреневых слонов с 1997 года, и являемся лидером в этой области… “

Под каждый поисковый запрос была создана отдельная страница, причем содержание многих страниц по смыслу очень сильно пересекалось. Многие услуги, под которые были заточенные отдельные страницы, отличались только названием (“разведение сиреневых слонов”, “выращивание сиреневых слонов” и т.д.). Очевидно, что такая структура создавалась с целью упростить продвижение, а про интересы посетителей при этом не подумали. Судя по статистике Я.Метрики и данным Вебвизора, многие пользователи не могли сориентироваться в таком беспорядке – просматривали несколько страниц по 7-10 секунд и возвращались обратно в выдачу.

По результатам аудита было сделано следующее:

– для похожих услуг оставили по одной странице, лишние страницы удалили с сайта;

– содержание Title и H1 в рамках каждой страницы сделали разными;

– убрали точное вхождение ключевика в URL;

– сделали структуру каждой страницы индивидуальной, ориентируясь на удобство пользователей: где надо, добавили таблицы, где надо – маркированные списки и т.д.;

– убрали обязательное вхождение ключевика в первый абзац. В итоге получилось так, что каждая посадочная страница содержала по 1-2 точных и 3-4 разбавленных вхождения, но они были добавлены согласно смыслу текста (про SEO при этом не думали).

По окончанию работ отправили запрос на пересмотр сайта в Яндекс, фильтр был снят в течении недели.

Вывод: причиной пессимизации сайта может послужить наличие похожих по смыслу страниц, созданных для продвижения под разные ключевые слова. Раньше такой подход к оптимизации помогал поднять видимость сайта, теперь может стать причиной санкций.

АГС

АГС накладывается в случаях, если сайт в целом с точки зрения Яндекса не несет никакой пользы для посетителей. Обычно какие-то отдельные работы по контенту, как в случаях с фильтром за переоптимизацию, здесь не помогают – требуются более глобальные действия.

4. Случай с уникальным контентом без добавочной ценности


Вначале года был запущен новый сайт о банковских услугах. Владельцы ресурса готовились к запуску около пяти месяцев – собирали базу услуг, готовили статьи, добавляли описания банков. Через месяц после запуска наступило разочарование – сначала Яндекс проиндексировал несколько сотен страниц, но потом их количество стало стабильно уменьшаться с каждым апдейтом, пока в индексе не осталась всего одна страница (главная).

Администрация сайта вела длительную переписку с Платонами, делая упор на том, что весь контент ресурса уникальный, качественный и написанный специалистами, которые разбираются в теме. Но все ответы Яндекса сводились к рекомендациям “развивать сайт и делать его более полезным и актуальным для целевой аудитории”. На самом деле, совет не такой бессмысленный, каким его считают многие оптимизаторы.

Мы проанализировали весь сайт с точки зрения SEO. Не было абсолютно никаких нареканий в плане технического качества контента и внутренней оптимизации – никаких очевидных причин пессимизации.

Но мы знаем – Яндекс накладывает АГС, если считает сайт бесполезным для аудитории. Мы посмотрели на сайт с точки зрения пользователей и пришли к выводу, что проблемы с контентом все-таки есть. Тексты действительно были уникальны технически, но назвать их уникальными по содержанию никак нельзя. Другими словами, сайт представлял собой сборник качественного рерайта информации, которую можно было найти на сотнях других ресурсов. Контент сайта не имел никакой добавочной ценности, и в этом была основная причина его исключения из индекса.

По результатам диагноза, совместно с владельцем сайта был разработан план улучшения ресурса:

– основные усилия сосредоточили на том, чтоб создать в рамках сайта некий уникальный сервис поиска и сравнения банковских продуктов;

– была добавлена возможность заказывать многие услуги прямо через сайт;

– внешний вид сайта реструктуризовали таким образом, чтоб сделать акцент на сервисе, а контентные разделы убрать на второй план.

После окончания работ, которые в целом заняли почти два месяца, отправили запрос в Яндекс. Фильтр был снят, сайт переиндексировался заново. Сейчас ресурс стремительно развивается и имеет стабильный рост целевой аудитории:

Кстати, на графике видно, что в конце сентября у сайта начались проблемы с Google (после выхода очередного релиза Панды). На выяснения причин и устранение проблемы ушло около 3 недель, и сайт восстановился в выдаче. Если сайт действительно хороший – нерешаемых проблем нет.

Случаи с пессимизацией за поддомены, созданные для регионального продвижения

Известно, что продвижение в какой-либо региональной выдаче заметно упрощается, если сайту присвоен нужный регион. Но без Яндекс.Каталога сайту можно присвоить только один регион, а попасть в каталог дорого и не всегда возможно даже за деньги. Поэтому многие вебмастера, с целью получать трафик из разных регионов, создают несколько поддоменов с липовыми контактами в разных городах, а затем пытаются продвигать их в разных региональных выдачах. Как правило, основная часть информации на поддоменах пересекается, иногда они отличаются только контактами и главной страницей.

Даже если сайту на какое-то время удается получить видимость в нескольких регионах, рано или поздно начинаются проблемы с индексацией. В нашей практике таких случаев было несколько, приведу два примеров.

5. Поддомены для интернет-магазина подарков


С целью получить трафик из более чем 30 регионов, оптимизаторы магазина создали соответствующее количество поддоменов. Их контент полностью повторялся, отличались только названия городов в Title и текстах за счет автоматической подстановки (“У нас можно заказать женский подарочный набор с доставкой по Москве|Петербургу|Нововосибирску|Екатеринбургу|и так 30 регионов самого высокого качества”). Некоторые поддомены так и не были проиндексирваны, некоторые пробыли в индексе около месяца, после чего весь ресурс попал под АГС.

По результатам аудита сделали следующее:

– оставили только 5 поддоменов для основных регионов;

– содержание каждого поддомена максимально уникализировали. Например, были добавлены разделы с описанием особенностей отмечания праздников каждого города, уникальные категории с городскими сувенирами;

– включили возможность добавлять отзывы, каждый из которых выводился только на одном из поддоменов.

После запроса в поддержку получили ответ, что фильтр будет снят через месяц после повторного пересмотра. По истечению указанного срока, фильтр сняли без повторного запроса – все 5 поддоменов проиндексировались.

6. Сайт образовательного центра


У одной небольшой образовательной компании, которая находится в Петербурге, появилась услуга дистанционного обучения из любого города. Перед штатными оптимизаторами сразу встал вопрос получения трафика из разных регионов. С целью получить привязку сразу к нескольким регионам, сайт пытались платно зарегистрировать в Я.Каталоге, но заявку отклонили по причине наличия спама. Поэтому оптимизаторы пошли другим путем – создали 8 поддоменов, контент которых почти не отличался. В течении месяца поддомены проиндексировались, а потом выпали из индекса за один апдейт (возможно, фильтр был наложен вручную). У основного домена в индексе осталась одна только главная страница, но и она перестала получать трафик из Яндекса.

После анализа ситуации, было сделано следующее:
– все поддомены удалили;

– основной сайт почистили от спама.

Фильтр сняли через месяц после повторной модерации:

После переиндексации, сайт был успешно добавлен в Я.Каталог на платной основе с регионом СПб, сейчас рассматривается заявка на присвоение дополнительных регионов.

Вывод: клонирование информации на несколько поддоменов с целью продвижения по регионам, как правило, приводит к пессимизации. Создавать поддомены можно только в случаях, если вы можете наполнить их разным контентом.

Аффилирование

Аффилирование – это “болезнь” сайтов, которые принадлежат одному владельцу и продвигаются по одинаковым ключевым запросам. Если сайт зааффилирован ошибочно, что случается достаточно часто, от фильтра вполне возможно избавиться. Все зависит от того, сможете ли вы привести достаточно ясных аргументов, что ваш сайт не имеет “братьев” по владельцу.

7. Случай с сайтами, которые продвигались одной компанией


К нам обратились представители одной российской SEO-студии с просьбой помочь разаффилировать сайты двух клиентов. Сайты принадлежали двум разным компаниям, предлагающим услуги ремонта техники. В реальности никакой связи между компания не было и, по сути, они конкурировали между собой. Но Яндекс решил иначе, и при подробном анализе сайтов стало ясно, почему:

– во-первых, схема внутренней оптимизации обоих сайтов была идентична на 99%. Создалось впечатление, что оба сайта оптимизировались по одному ТЗ – одинаковая разбивка ключевиков по страницам, очень похожая структура и мета-теги этих страниц, очень похожие разделы со статьями, которые использовались под внутреннюю перелинковку и т.д.;

– во-вторых, пересечение ссылочных доноров для сайтов составляло около 60%. Это значит, что больше половины ссылок на оба сайта было размещено практически рядом на одних и тех же страницах;

– в третьих, оба сайта были добавлены в одну панель Я.Вебмастер. Сотрудники студии объяснили, что у них сайты похожих тематик для удобства всегда добавляются в одну панель (чего я делать категорически не советую).

Мы изучили двухмесячную переписку студии с Яндексом – все ответы поддержки сводились к тому, что решение о ранжировании сайтов принимается автоматически, а комментировать действия алгоритмов сотрудники не могут. Мы решили пойти другим путем:

– один из сайтов удалили из общей панели Я.Вебмастер и создали для него свой аккаунт;

– почистили этот сайт от явных признаков оптимизации (снесли каталог статей, переделали структуру страниц и Title);

– отказались от большей части ссылочных доноров, которые пересекались с аффилиатом;

– с нового аккаунта написали письмо в поддержку Яндекса от имени владельца сайта с просьбой разъяснить ситуацию с падением трафика. При этом упомянули, что ранее продвигались у SEO-компании, от услуг которой отказались (что подтверждалось изменениями во внутренней оптимизации и ссылочной массе);

– получили ответ, что сайт был автоматически исключен из поиска по причинам, которые сотрудники поддержки не могут комментировать. Мы в свою очередь ответили письмом, где искренне просили подсказать, как выйти из ситуации. Снова получили ответ, что нужно ждать, пока алгоритмы пересмотрят сайт;

– пока думали над содержанием следующего письма, сайт неожиданно вернулся в выдачу.

Вывод: “конвейерный” подход к продвижению сайтов тоже может стать причиной пессимизации. Поэтому советую оптимизаторам разрабатывать для каждого сайта индивидуальную стратегию продвижения, а владельцам сайтов – задуматься над тем, является ли наличие ваших конкурентов в портфолио студии таким уж большим плюсом.

Бывают случаи, когда в ошибочном аффилировании не виноваты ни оптимизаторы, ни владельцы сайта Об этом – в последнем кейсе.

8. Случай с одинаковыми адресами


Недавно к нам обратился клиент, у которого интернет-магазин косметики за одни сутки потерял 80% трафика из Яндекса. При этом по большинству запросов сайт полностью исчез из выдачи – не просел, а полностью пропал. Симптомы указывали на аффилирование и, с помощью некоторых интересных приемов был найден сайт-аффилиат. Он представлял собой каталог косметики (не магазин), на страницах контактов которого был указан тот же адрес, что и у нашего интернет-магазина – офисы обеих компаний находились в одном торговом центре на одном этаже.

Мы составили письмо в Яндекс, где подробно описали ситуацию с трафиком и запросами и обосновали наше подозрение касательно аффилирования. Особый акцент мы обратили на то, что ассортимент продукции на сайте разный и ориентирован на разную целевую аудиторию – на случай, если аргумента касательно торгового центра окажется недостаточно. Сначала пришел невнятный ответ, что в частном порядке такие вопросы не решаются и наша жалоба передана разработчикам алгоритма Но в течении двух недель трафик из Яндекса неожиданно вырос до прежнего уровня – сайт вернул свою видимость в поиске, фильтр сняли.

В заключение хочу сказать, что не встречала случаев, когда вывести сайт из-под фильтра было бы невозможно. Все зависит от готовности владельца сайта менять не только свой ресурс, но и свои взгляды на принципы продвижения. Мы не беремся помогать в случаях, когда нам ставят задачу обойти алгоритм любым способом, не затрагивая при этом контент и структуру сайта. И это не потому, что не можем, а потому, что успех в таких случаях бывает очень непродолжительным.
Зато мы с радостью готовы помогать сайтам, владельцы которых стремятся к долгосрочному результату и осознают, что качество контента определяется не только техническими SEO-характериситками.

P.S. Еще один кейс – как мы вывели сайт в топ по ВЧ запросу.

Просмотров: 32,079


  • veblik

    А как быть если позиции сайта скачут каждый день? Сайт уверенно держался на первом месте и в топ 3 на протяжении полу года по десяткам запросов, а с 23 октября позиции начали то на 10 то на 20 пунктов вниз падать то обратно возвращаться на 1 место. Причем посещаемость наоборот выросла, но суть не в том, откуда скачки то? Тексты, изображения уникальные все 95-100%, средний процент отказа 15, почти треть всех посещений прямые заходы. Ни одной покупной ссылочки на сайт нет. Может это новый фильтр яндекса?

  • http://twitter.com/evg_buyanchenko Евгений Буянченко

    Спасибо большое за статью, есть над чем подумать. Очень хотел бы задать вам вопрос: допустим, на сайте переоптимизация заметная, трафик слетает с Яндекса более чем на 90%, но продолжает отлично индексироваться, многократная переписка с Платоном указывает, что с сайтом все в порядке, проблем, он представлен в поиске в соотв с релевантностью, Платон должен был подтвердить факт переоптимизации или мог слукавить? Я просто не могу определиться: менять мне весь контент или искать другую причину…

  • Роман

    Супер. Читаю блог с превеликим удовольствием. Пригодился лично мне пятый пункт. Елена, спасибо!!!

  • Александр

    Отличная статья. Но она вся о фильтрах Яндекса. Нет каких-нибудь интересных кейсов по Гугловым фильтрам? Особенно интересует аффилиат-фильтр. Есть интересный случай: 2 сайта одного хозяина (естественно с одинаковыми адресами, телефонами), но один из них продает туры на отдых в различные страны, другой – авиабилеты в некоторые страны. В Яндексе сайт ранжируется нормально, В Гугле все запросы за пределами топ-100.проблем с сайтом не наблюдается, тексты уникальны. Как поступить в таком случае? В поддержку Гугла ведь не достучишься…

  • http://twitter.com/ggl_plus Виктор Кудрявцев

    Интересно, что информацию об этой статье (я подписан через я-почту) яндекс отправил в спам ! (хорошо, что я туда заглянул). Вот и верь теперь в непогрешимость этого монстра. Конечно, стабильные поисковые посетители – это мечта любого. Но чтобы не потерять разом все, нажитое непосильным трудом, надо иметь таки и непоисковые источники посетителей. Будем искать!

  • Виктор Смищук

    очень познавательная статья, спасибо.

    Есть вопрос насчет негативного влияния нахождения 2-х сайтов одной тематики в одной панели вебмастера Google. Как же быть владельцам сайтов, которые хотят сами отслеживать все действия над сайтом, и дают администратиыне пррава на управление аккаентов. но тем не менее сайты находятся в одном аккаунте..а продвигать и контролировать могут разные фирмы и частники..???

    Думаю что мысль насчет негативного влияния нахождения 2-х сайтов в одной панели иметь место быть, но тут возможны варианты я не думаю что гугл не учитывал бы такие как я описал.

  • http://optimizatorsha.ru/ Kamskaya

    Александр, статья получилась более объемной, чем я предполагала, поэтому про Google уже не стала писать. Надеюсь, что смогу найти время на отдельную статью на эту тему. Что касается конкретно Вашего случая – не думаю, что это связано с владельцем. У меня есть много примеров, где зааффилированные в Yandex сайты отлично ранжировались в Google. Если проблемы с обоими сайтами – нужно искать причины в стратегии продвижения. Возможно, сайты продвигаются по одной и той же схеме, которая содержит ошибки.

  • http://optimizatorsha.ru/ Kamskaya

    Есть примеры, связанные с переносом на другой домен после исправления ошибок на сайте. Есть также примеры, когда сайты, падение которых совпало с выходом Пингвина, возвращались на прежние места без переноса на новый домен. Но у меня есть сомнения, что причиной проседания в этих случаях был именно Пингвин.

  • Damira N

    Очень интересные кейсы. особенно актуально про переоптимизацию. Нет ли у вас информации о каких то новых фильтрах Яндекса? В апдейт 18.08.2012 многие молодые сайты массово попали под фильтр. По своим проявлениям фильтр похож на переоптимизацию, но есть интересная особенность – Платоны всем отвечают что с сайтом все в порядке, санкций не наложено.

  • http://optimizatorsha.ru/ Kamskaya

    А позиции как проверяете? Возможно, Вы попали под тестовую выборку, на которой отлаживалась персонализация выдачи.

  • http://optimizatorsha.ru/ Kamskaya

    Зависит от типа ключевой фразы и качественных показателей станицы. Если у Вас ключевая фраза “аренда квартир”, то URL типа [arenda-kvartir] будет смотреться вполне естественно и нормально сочетаться с вхождениями в Title и на странице (если число упоминаний – в рамках разумного). Если же у вас ключ “снять квартиру посуточно цены”, его точное вхождение в URL, title и несколько раз в текст будет если не причиной, то катализатором пессимизации.

  • http://optimizatorsha.ru/ Kamskaya

    У нас цены зависят от сложности проблемы, которую нужно решить. Базовая цена для корпоративных сайтов – около 16 тыс. руб. – http://siteclinic.ru/prices/

  • http://optimizatorsha.ru/ Kamskaya

    Предвзятое отношение поисковиков к статейным проектам вполне объяснимо. Редко можно найти статейник, где кроме хорошего рерайта можно было бы найти реально что-то ценное.

  • http://optimizatorsha.ru/ Kamskaya

    Скорее всего это не фильтр, а изменения в формуле ранжирования.Среди “пациентов”, которые обращались к нам с жалобами на обвал трафика 18 августа, были и немолодые сайты. Насколько я помню, там была прямая связь с ПФ.

  • http://optimizatorsha.ru/ Kamskaya

    У нас нет наблюдений по поводу нахождения 2-х сайтов одной тематики в GoogleWebmasterTools, речь шла о Я.Вебмастере и о фильтре аффилирования, которого у Google нет (по крайней мере, пока). Думаю, в нашем кейсе с аффилиатами главной проблемой была похожая стратегия оптимизации, а нахождение сайтов в одном аккаунте послужило просто сигналом.

  • Paladin

    Очень полезная статья, Елена! У меня такой вопрос к Вам. Насколько я понял, если в title, h1 и url будет точное вхождения ключевика, то сайт может попасть под пессимизацию. Как выйти из этой ситуации? Что куда и в каком вхождении писать и писать ли?

  • Oleg

    Как насчет сайта с аккордами к песням, которых нет на других сайтах? Могли ли на такой сайт наложить фильтр из-за неуникальности контента? Сайту 3 месяца.

  • Алекс

    Здравствуйте! Подскажите пожалуйста, в чём причина АГС сайта http://gannforex.ru/. Перепробовал уже множество вариантов, но сайт по-прежнему не индексируется(((

  • Ирина

    Проблема Яндекса в том, что он мешает в одну кучу коммерческие и любительские сайты. Точнее, проблема не у Я., а у сайтовладельцев. Яндекс так параноидально фильтрует контент, что вместе с водой выплеснул и ребёнка. Есть много вебмастеров, которые делают сайты просто для себя и для людей, пишут или переводят познавательные статьи, не ставя перед собой цели занять какую-то позицию в поисковой выдаче. А их сайты пессимизируют за неправильно прописанные теги h1 или за другую оптимизаторскую муру, которая в некоммерческом секторе вообще не должна иметь никакого значения.
    Google в этом смысле намного либеральнее – он карает только за очевидные нарушения.

  • Александр

    Что касается title и H1, то они как-раз таки могут быть одинаковыми, по совету самого же Яндекса. Прочтите раздел помощи

  • Lianna

    Елена, подскажите, пожалуйста, как быть, если на сайте постоянно воруют контент. Есть смысл его переписывать и делать уникальным, либо ПС это учитывают и относятся к этому негативно (т.е как вариант обмана ПС). Еще интересует такой вопрос: если у меня на сайте был уникальный контент, его своровали, я его изменила снова на уникальный, ПС переиндексировали мою страницу уже с новым контентом, на том сайте, кот. украл мой контент, он считается уникальным???

  • http://optimizatorsha.ru/ Kamskaya

    Введите в поисковую строку кусок текста со страницы, у которой разворовали контент – если Ваш сайт ранжируется выше всех, причин для беспокойства нет. Если сайт не первый в выдаче, текст на странице лучше уникализировать.

    При добавлении на сайт новых текстов рекомендую использовать инструмент “Оригинальные тексты” в Я.Вебмастере (см. раздел “Содержание сайта”) – по нашим наблюдением, это помогает.

  • http://optimizatorsha.ru/ Kamskaya

    Вы, наверное, имеете в виду информацию из раздела помощи “Представление информации на сайте”, где представлены рекомендации по составлению Title и H1

    О Title:
    “….Хорошо также, если заголовок не только содержит ключевые слова, но также информативен и актуален. Укажите в заголовке краткое описание предоставляемых услуг….”

    О h1:
    “Правильное оформление заголовков в тексте помогает пользователю быстрее сориентироваться на странице, а значит, экономит его время. Кроме того, и роботу Яндекса будет проще разобраться со структурой документа. Поэтому следует выделять этими тегами заголовки в соответствии с иерархией документа.”

    Рекомендую и Вам перечитать рекомендации Яндекса и постараться воспринимать информацию буквально, а не читать между строк и искать там то, что хочется видеть.

  • Pingback: Блог-шоу - выпуск 48()

  • Иринка

    ну тогда стопудово у вас не будет четкой картины о занимаемой позиции, надо пользоваться либо платными сервисами, которые стоят копейки. Или проверять через режим “инкогнито” в браузере.

  • Лина

    Скажите, как грамотно удалить страницы с дублированным контентом, если они проиндексированы и невозможно их переписать? 301 редирект?

  • алексей кленов

    Здравствуйте Елена. Может я что-то пропустил. Вы и ваша группа занимаются частной практикой по отдельным сайтам (выявление причин наложения АГС на конкретный сайт) или это только публикации рекомендаций и отчеты о ваших экспериментах.

    Прошу прощения за возможно не совсем корректно сформулированный вопрос, но найти причину пессимизации своего сайта собственными силами и силами форумчан searchengines.ru пока не удается.

    Если вы не занимаетесь подобными вопросами, может посоветуете кого.

  • Pingback: Блог-шоу — выпуск 48 | Clickomat()

  • Дмитрий

    Очень хорошая и познавательная статья. У меня есть сайт megashmot.ru и меня выкинул из раздачи гугл, закинул в сопли, оставив 2% страниц в основной выдачи и я не знаю почему. К кому не обращался никто не знает правдивого ответа. Может тут мне кто-нибудь поможет? Не бесплатно конечно. Просто нужно понять по какие санкции попал мой сайт =( Спасибо за внимание

  • Max Zanko

    Понравилось, наконец директору доказал всю свою правоту документально!!! + оч полезные коментарии

  • Anton Vailev

    смотрел про минусинск как теперь правельно закупать ссылки вот тут http://www.megaindex.tv/programs/events/zakupka_ssylok_v_usloviyah_minusinska_/