Почему мой сайт выпал и Топа? 8 возможных причин.


Если после очередного апдейта вы внезапно обнаружили, что позиции сайта резко просели – не спешите паниковать. Всему есть причина, и если вы сможете правильно определить, какие ваши действия или внешние обстоятельства привели к падению сайта, это уже половина пути к возвращению сайта на прежние позиции.


Итак, что может стать причиной падения позиций сайта? Сначала поговорим о ваших действиях или бездействии, которые могли привести к таким печальным последствиям.

1) Неаккуратный перенос сайта на новый движок.
Если при переносе вы не позаботились о том, что URL страниц и, по возможности, кодовая структура, остались прежними – не удивляйтесь, если ваш сайт скатится в преисподнюю.
Как убедиться, что причина именно в этом? Посмотрите, какие страницы сайта находятся в кеше поисковой базы – если там уже новые страницы, то причина, скорее всего, именно в смене движка.
Как исправить? Настройте 301 редирект со страниц со старыми адресами на новые и ждите, когда робот поисковика «склеит» старые страницы с новыми. Такой редирект также необходим для посетителей – каждый из них, кто привык заходить на сайт по старым URL-адресам, будет автоматически перенаправляться на новые.

2) Смена релевантных страниц в выдаче.
Допустим, еще вчера сайт по любимому запросу находился на 5 месте, и при этом в выдаче была страница А. Сегодня он скатился на 55 место, и там вместо страницы А выдается страница Б. Такое очень часто бывает при наличии на сайтах дублей страниц – когда одна и та же страница доступна по разным URL-адресам. Дублями основных страниц могут быть версии для печати, страницы с идентификаторами сессий, страницы блогов с комментариями. Сравните, например, страницу http://optimizatorsha.ru/master-classes/internal-links-building/ и http://optimizatorsha.ru/master-classes/internal-links-building/#comments. По сути, они абсолютно идентичны, но имеют разные URL-адреса.
Как исправить? Закройте дубли страниц к индексации в файле robots.txt, и ждите, пока поисковик выкинет их из поиска. Что б ускорить эту процедуру, можно вручную поудалять страницы из базы через панель вебмастера (Яндекс.Вебмастер, Центр.Вебмастеров.Google)

3) Неправильная склейка зеркал.
Вы продвигали сайт с www – http://www.mydomain.ru, и он хорошо ранжировался по многим запросам, но вдруг сайт резко скатился вниз, и при этом в индексе все страницы находятся без www – http://mydomain.ru (или наоборот). Для поисковой системы сайт с www и без www – это как бы разные сайты («зеркала»). И если все ссылки ведут на сайт с www, то при смене зеркала на сайт без www, он начинает ранжироваться практически только по внутренним факторам, так как ссылки на домен без www поисковик не видит. Естественно, зеркало без ссылок получает позиции гораздо хуже, чем зеркало с ссылками.
Что делать? Варианта есть 2, и все зависит от того, будете ли вы добиваться возвращения в индекс старого зеркала или работать с новым. Что даст более быстрый результат – предугадать невозможно. Если вы решили возвращать старое зеркало – нужно указать его URL в директиве HOST в robots.txt (HOST: www.mysite.ru, если старое зеркало – с www), настроить редирект всех страниц с нового зеркала на старое, продолжать естественное наращивание ссылок на старое зеркало. Если вы решили оставить в выдаче новое зеркало – делайте все тоже самое, только наоборот.

4) Ошибки при оптимизации сайта.
Любые манипуляции как с контентом самого сайта, так и с внешними ссылками могут привести к совершенно неожиданным последствиям. Если Вы экспериментировали с сайтом с целью повысить его позиции по конкретным запросам, но получили совершенно противоположный эффект – ищите ошибку в своих действиях (этот пункт заслуживает особого внимания и отдельного поста, который вскоре появится на моем блоге).

5) Нарушение регламента поисковых систем.
Самый плохой вариант. Если вы использовали поисковый спам, есть большая вероятность, что на сайт наложили фильтр, в результате чего он потерял позиции. Что делать? Для начала нужно определить, какой именно фильтр вас настиг и как от него избавиться (подробнее о фильтрах Яндекса и фильтрах Google). Главное, потом не повторяйте своих ошибок.

6) Поскольку Яндекс учитывает поведение пользователей при ранжировании сайтов, плохая навигация и запутанная структура также могут привести к проседанию позиций сайта. Такая проблема есть у одного из наших клиентов – сайт содержит самые качественные рукописные тексты и отобранные вручную ссылки, но он настолько неудобен, что больше половины пользователей, перешедших на сайт из поиска, почти сразу возвращаются обратно к результатам выдачи, так как найти на сайте нужную информацию очень сложно. Мы неоднократно настаивали на улучшение удобства сайта, но увы, клиенту это не интересно. После того, как Яндекс усилил влияние ПФ в формуле ранжирования, сайт сильно просел. Если проверить сайт этим скриптом, становится очевидно, что если бы не ПФ, сайт был бы в Топе:

Теперь пару слов о внешних обстоятельствах, в результате которых сайт мог получить «пенальти» в результатах поиска.

1) Активировались конкуренты.
Если вы давно ничего не делали со своим сайтом, вполне возможно, что причинной потери позиций стали активные действия конкурентов, которые в результате работы над своими сайтами вытеснили вас их топа. Но может быть объяснением только в случае небольшого проседания сайта в пределах 2-5 позиций, или выпадения из топа по 1-2 отдельным словам.

2) Смена алгоритма.
Формулы ранжирования постоянно совершенствуются добавлением новых факторов, сменой коэффициентов, введением новых фильтров. При обновлении алгоритма, релевантность сайтов пересчитывается по новой формуле, с учетом новых факторов. И если сайт просел именно в день смены алгоритма, скорее всего он не соответствует новой формуле.
Что делать? Анализировать новый алгоритм и развивать свой сайт в соответствии с новыми требованиями. Убедиться в том, что сменился алгоритм, можно на форуме.

3) Плохой хостинг.
Да, плохой хостинг тоже может стать причиной потери позиций. Если поисковый робот не мог достучаться до сайта из-за проблем на сервере (сервер в дауне или долго отвечает), при следующем апе он может отранжировать сайт без учета внутренних факторов (под сниппетом будет заметка – найден по ссылке). Еще хуже, когда администратор сервера закрывает поисковым роботам доступ на сайт. Да, и такое бывает. Что делать? Менять хостинг. Если проблемы с хостингом будут повторяться, с сайта уйдут и боты, и люди. Советую этот хороший хостинг.

Ну, из основного вроде все. Если я забыла о чём-то упомянуть – дополняйте в комментах.

Просмотров: 12 535


  • По пункту 2 про дубли. Тут я так понимаю речь идет о полных дублях? Версия для печати скажем полностью повторяет главный контент, только без меню. А как обстоят дела с нечеткими дублями, например страницы календаря, разделы сайта, постраничный вывод – везде там есть превьюшки главных новостей. Их стоит закрывать?

  • Бороться нужно и с полными, и с неполными дублями. От полных дублей нужно либо избавляться глобально (править код CMS, что б дубли изначально не генерировались), либо закрывать к индексации. Нечеткие дубли нужно либо также закрывать к индексации, либо как-то уникализировать. Но оставлять их как есть не советую.

  • Pingback: Ответы на вопросы по продвижению #2 | Optimizatorsha.Ru()

  • Yevheniy Dotsenko

    Спасибо. Классная статья. Буду следовать вашему руководству на своём сайте http://borges.com.ua

  • gudman

    Спасибо за статью!
    скажите, а на сегодня есть в яндекс вебмастере функция удаления дублей вручную?! я почему то не нашел!!!

  • Увы, на данный момент такой функции нету.

  • Elenmin

    Новички, конечно же, находятся в состоянии замешательства, когда их сайт теряет популярность. Статья делает понятным некоторые причины этого. Для меня это новые данные, а потому ценные.

  • Seobrabus

    Постоянно говорю об этом. Неправильное определение зеркала обычно бывает по причинам не своевременного определения. Всегда прежде чем выпускать проект в рунет и регистрировать его и добавлять в индекс Яндекса, необходимо определить как Вы хотите видеть свой сайт в поиске с www или без. *Сделать редирект на выбранное зеркало, прописать в роботс основное и только после этого открывать сайт к индексу, а иначе в 7 случаях из 10 яндекс успевает определить для себя основное зеркало на свое усмотрение а оптимизатор на свое и так сказать вкусы не совпадают.

  • Aerodinamik

    Продвигал свой сайт http://civilistica63.ru и в какой-то момент сайт вылетел из топа практически по всем запросам, прочитал вашу статью и понял, что всему виной были мои ошибки во внутренней оптимизации текстов.

  • А что, если в яндексе всплыли не зеркальные страницы, а вообще нерелевантные, на которых поисковая фраза есть только в в блоке “Похожие страницы”, при этом релевантные страницы в поисковой базе яндекса есть, но в выдаче отсутствуют, при прошлых апдейтах они были в топ 1-3 и приносили хороший трафик. Что это за фильтр?