Почему сайт выпал из ТОП10: возможные причины
 Когда после очередного апдейта сайт вдруг резко теряет позиции, это не повод паниковать. Всему должны быть причины, главное – их найти. Итак, что могло послужить причиной выпадения сайта из ТОП10?
Один из вариантов – некорректный перенос сайта (контента) на новый движок. Если адреса (URL) страниц и их кодовая структура полностью поменялись, поисковая система вполне может отреагировать не лучшим образом. Убедиться в этом можно, выяснив, что за страницы сайта находятся в кэше поисковой базы. Если в кэше, в основном, новые страницы, причина, скорее всего, в переносе на новый движок. Исправить ситуацию можно, настроив редирект 301 со старых адресов на новые. Через некоторое время поисковый робот должен «склеить» старые и новые страницы с одним контентом.
Дубли страниц. Когда одна страница, по каким-то причинам, доступна по разным адресам, возникают так называемые дубли. Типичный случай – дубли, возникшие в результате индексации страниц для печати. Также дубли могут возникать из-за страниц с идентификаторами сессий, либо, к примеру, страниц блогов с комментариями. Исправить ситуацию можно, закрыв лишние страницы к индексации в файле robots.txt. Через некоторое время поисковый робот исключит лишние страницы из индекса и ситуация с ранжированием должна исправиться. Кроме того, вы можете эту процедуру заметно ускорить, вручную удалив страницы из базы поисковика через панели вебмастера Яндекс и Google.
Ошибочная склейка зеркал. Как это выглядит? К примеру, вы продвигали свой домен вида http://www.sitename.ru, который ранжировался по многим запросам довольно хорошо. Но в какой-то момент оказывается, что сайт резко теряет свои позиции, а в индексе находятся страницы без префикса www. Поисковая система воспринимает один и то же сайт с префиксом www и без него как два разных сайта. Склейка двух сайтов – совершенно обычное дело для поисковика, если они имеют одинаковый контент. Если при склейке поисковик посчитал основным сайтом вариант без префикса www, а вся внешняя ссылочная масса ведет именно на сайт с этим префиксом, ресурс, по сути, остается без внешней оптимизации. Вполне естественно, что при этом его позиции заметно падают по всем запросам. Вариантов исправления ситуации два: либо вернуть старое зеркало (указать директивой HOST в файле robot.txt), либо настроить редирект всех страниц сайта с нового зеркала на старое.
Одна из потенциальных причин - ошибки, связанные с оптимизацией сайта. Любые действия с контентом сайта и внешними ссылками легко могут привести к самым неожиданным последствиям. Желательно скрупулезно записывать все свои действия, связанные с поисковой оптимизацией сайта. Тогда вы с большой вероятностью сможете вычислить, что именно привело к нежелательным результатам.
Самый сложный случай – наложение фильтров поисковых систем. Главное в этой ситуации – попытаться определить, что за фильтр был использован. А это не так просто. Нужно провести SEO-аудит сайта, который и выявит проблемы. Кстати, одна из возможных причин наложения фильтров – действия конкурентов. Если на вашем сайте используются запрещенные поисковиками методы продвижения, конкуренты запросто могут «пожаловаться» на ваш ресурс, и обычно такие жалобы рассматриваются модераторами. Поэтому серьезный сайт рекомендуется изначально продвигать только «белыми» методами.
Другие интересные статьи на разные темы Вы можете почитать тут
Главная
->
Почему сайт выпал из ТОП10: возможные причины
|
|
Интересное на сайте:
Программы для создания сайта
Конструктор сайтов
|