Возможные причины падения позиций в Google
Если вы продвигаете сайты в Google, то наверное тоже сталкивались с проблемой неожиданного понижения позиций сайта сразу по всем запросам. Со мной это случалось неоднократно, и хоть в каждом случае позиции удавалось вернуть, понять истинную причину проблемы получалось не всегда.
Надавно на
Для начала Вам нужно добавить сайт в Инструменты для вебмастера, если вы еще не успели этого сделать. Для этого нужно сначала зарегистрировать аккаунт в Google, потом зайти на страницу Инструментов, авторизоваться, нажать кнопку “Добавить сайт” и следовать инструкциям. В принципе, там все интуитивно понятно. Если вы только что добавили свой сайт, нужно подождать несколько дней, что б собралась информация для анализа.
Переходим непосредственно к анализу.
1. Проверка и исправление общих ошибок
Ошибки общего плана – это:
– 403 – доступ запрещен
– 404 – страница не найдена
– 408 – превышен интервал ожидания
Такие ошибки время от времени появляются у каждого сайта и, как правило, на них привыкли не обращать внимания. Но если таких ошибок слишком много, это может “подорвать доверие” роботов к сайту и привести к тому, что он будет индексироваться очень редко . Постарайтесь свести количество общих ошибок к минимуму – это будет способствовать улучшению общей индексации сайта.
Заходим в Инструменты для вебмастера -> Диагностика -> Ошибки сканирования и смотрим статистику:
Обратите особое внимание на ошибку 404 – “страница не найдена”. Она может возникать, если:
– вы удалили страницу на сайте, а ссылка на нее осталась;
– где-то неправильно прописана внутренняя ссылка (ошибка в навигации или во внутренней перелинковке);
– есть ошибки в URL внешних ссылок, которые ведут на ваш сайт.
Если причина ошибки внутри сайта, найдите ее и исправьте.
Нюанс 1: Бывает, что количество ошибок в отчете Инструментов Вебмастера превышает количество проиндексированных страниц. В таком случае причина скорее всего в неправильно настроенных редиректах, и если вы не знаете, как это пофиксить, пишите админу.
Нюанс 2: Обратите внимание на отчет по страницам, заблокированным в robots.txt – бывает, что из-за неправильных редиректов или ошибок в синтаксисе команд robotx.txt блокируются страницы, которые должны индексироваться.
Нюанс 3: Внешние ссылки на несуществующие страницы тоже не способствуют качеству вашего сайта, зато могут вызвать подозрение, что его владелец на него давно забил. Если у вас много внешних ссылок и проверять их вручную нет желания, можно воспользоваться
2. Ищем повторяющиеся заголовкистраниц
Дублированные заголовки и мета-теги страниц – серьезная ошибка, которая может стать причиной перемещения таких страниц из основной выдачи в “опущенные результаты” (подробнее о фильтрах Google):
.
Заходим в Инструменты для вебмастера ->Диагностика -> Предложения HTML, анализируем и исправляем повторяющиеся заголовки и мета-теги:
Нюанс 1: Причина большого количества повторяющихся заголовков может быть в специфике CMS-ки сайта (панели управления). Многие CMS по умолчанию дублируют тайтлы и мета-теги, прописанные для конретной рубрики, на всех страницах, который относятся к этой рубрике и для которых не прописаны индивидуальные тэги. Если это так, нужно просто изменить настройки или прописать отдельные тайтлы и теги для каждой страницы.
Нюанс 2: Советую также обратить внимание на другие отчеты в разделе “Предложения HTML” – Отсутствующие заголовки, Длинные заголовки, Неинформативные заголовки и т.д. Если в каком-то пункте замечено много ошибок, лучше исправить их как можно скорее.
3. Анализируем количество проиндексированных страниц
Если количество проиндексированных в Google страниц сайта превышает количество реально существующих страниц, очевидно, есть проблема дублирования одних и тех же страниц под разными адресами. Обычно разные URL для одной и той же страницы автоматически генерируюся CMS-кой сайта – страницы с идентификатором сессий, версии для печати и т.д.
Количество проиндексированных страниц проверяется простым запросом в поисковой строке google:
site:urlвашегосайта.ru
(Читайте также о других полезных операторах в Google).
4. Мониторим работоспособность сервера
Такие проблемы с сервером, как низкий аптайм (сервер часто не работает) и медленная загрузка тоже могут послужить причиной понижения позиций сайта в Google. Отслеживать скорость загрузки сервера можно с помощью специальном разделе Инструментов для Вебмастера.
Заходим в Инструменты для Вебместера -> Экспериментальные функции -> Эффективность сайта, и смотрим оценку скорости индексации вашего сайта с точки зрения Google.
Если в отчете сообщается, что скорость загрузки сайта намного ниже, чем у других сайтов, как показано на скриншоте – необходимо срочно принимать меры.
Нюанс: медленная скорость загрузки сайта может быть обусловлена не только проблемами с сервером, но и тормознутой админкой сайта.
Также не лишним будет оценить динамику загрузки страниц через Инструменты для Вебместера ->Диагностика -> Статистика сканирования:
.
Сегодня я проанализировала 6 сайтов по такой схеме и, как оказалось, у каждого из них есть те или иные проблемы с индексацией, хоть я стараюсь изначально делать все правильно и аккуратно. Так что лучше потратить лишние полчаса на мониторинг сайта и своевременное определение ошибки, чем потом – несколько месяцев на борьбу с ее последствиями.
Pingback: Блог-шоу - выпуск 36()
Pingback: Полезные записи в интересных блогах #7 | Lady Maksima()
Pingback: Оптимизаторша.Ру | Что такое грамотная внутренняя оптимизация()
Pingback: Ответы на вопросы #4: региональное продвижение, индексация ссылок, перелинковка и другое | Optimizatorsha.Ru()