Как не допустить SEO падения сайта?

У Вас бывали такие случаи, Вы залили сайт в сеть, отправили его на индексацию. Все проходит отлично, страницы попали в индекс поисковой системы и сайт начинает подниматься в топ, Вы счастливы и радуетесь за свое детище. Иногда при создании сайта и его продвижение, появляются проблемы с его продвижение и ндексацией в поисковых системах, даже после некоторых апдейтов Яндекса и Google, которые приводят к проблемам в SEO и падению сайта или потере позиций в поисковой выдаче. Так вот, в данной статье давайте рассмотрим, некоторые самые актуальные проблемы по данной теме и разберем как не допустить SEO падения сайта.

1. Своевременная проверка индексации

Если резко падает посещаемость ресурса за короткое время, в первую очередь нужно убедиться, что индексация сайта в поисковиках проведена без ошибок. Нередки случаи, когда веб-разработчики по ошибке оставляют включёнными теги NoFollow и NOINDEX, этого допускать нельзя. Тег NOINDEX отвечает за запрет индексирования части материала (только текста). Кроме того, существует метатег с таким же названием, он не даёт индексировать всю веб-страницу целиком. Но иногда даже при включённом режиме материал всё равно проходит в поиск (касается только поисковой системы Yandex). Дело в том, что компания сразу автоматически индексирует всё содержимое, а только потом производит фильтрацию, под которую часть материала не попадает. NoFollow, в свою очередь, запрещает пересылать вес по ссылкам, т.е. сама страница будет индексироваться, но ссылки под тегом не будут иметь веса (это активно используют интернет-пираты, чтобы система не распознавала переходы на сомнительные сайты).

Также бывают ситуации, когда файл robots.txt (документ с инструкциями для поисковых ботов) не обновляется, т.е. перемены в организации проекта не учтены. Для проверки исправности файла нужно использовать последнюю его копию, и в Webmaster Tools (утилита от Google) или в Яндекс.Вебмастер можно проверить совпадение в тестере, подставив одну из ссылок.

Можно протестировать robots.txt на несколько адресов, но тут уже нужно учесть, что каждая из них использует свой WebCrawler для представления документа, поэтому иногда возможно несовпадение результатов. В любом случае несколько попыток выявят правильность работы файла.

Для эффективной проверки рекомендуется использовать хотя бы 1-2 веб-страницы из каждого блока. Веб-разработчик может добавить тестирование в скрипт, тем самым упростив проверку.

2. Проверка переадресации

Когда сайт сменяет домен, в большинстве случаев при попытке перейти на него пользователь должен быть перенаправлен на новый адрес. Иногда вместо этого возникает ошибка 301. Такие вещи довольно сложно исправлять, так как если не тестировать регулярно HTTP-заголовки ответных сообщений от сервера, применяя механизмы разработки браузера, то ошибка попросту не распознаётся.

Если есть подозрение, что переадресация не выполняется (это могут быть жалобы посетителей сайта, если предоставлена возможность комментировать работу ресурса), рекомендуется исследовать самые посещаемые страницы проекта. Может оказаться, что их рейтинг в последнее время резко упал. Но перед этим нужно проверить состояние тегов (возможно, с переадресацией проблем нет, а причина – вышеупомянутые теги).

В некоторых случаях при попытке перехода появляется ошибка 404. Её лучше заменить на сообщение, указывающее, что неполадки носят временный характер. Это вызовет доверие пользователей и желание вернуться на сайт. Чтобы проверить наличие этой проблемы, нужно добавить новые типы тестирования наборов переадресации ключевых веб-страниц в текстовый скрипт. Первым делом нужно удостовериться, что все переходы на пути выводят к странице, где замечена ошибка 301. Разработчики должны развивать свои навыки в проверке адресов, так как каждый ресурс имеет свою структуру и единого шаблона решения проблем не существует.

3. Вычисление спамеров

На сайтах, предоставляющих возможность комментариев к контенту, есть риск возникновения спамеров. В большей степени это касается социальных сетей и форумов, где материал по большей части создаётся пользователями. Нужно принимать защитные меры, иначе случайные посетители могут создавать материал на страницах, содержащий ссылки на сторонние ресурсы.

Выявить спамеров обычно не составляет труда. Google приложение Webmaster Tools вычисляет появление ключевых слов и, если СПАМ обнаружен, оповещает автора сайта через e-mail. Но нужно и вручную выполнять проверку содержимого, доступного пользователям. Уже давно существуют методы обхода роботов поисковых систем и обмана защитных алгоритмов.

Специальная функция CMS содержит ряд плагинов, вычисляющих СПАМ, но этого не всегда достаточно. Лучше всего перед публикацией посетителями своего материала проверять его лично. Если ресурс слишком большой и такой возможности не предоставляется, можно нанять штат модераторов, которые будут отслеживать подозрительные ссылки и текст рекламного характера.

Сайты разрастаются, их число увеличивается с каждым днём, а это создаёт новые сложности в переадресации и индексации веб-страниц. Полностью исключить СПАМ поисковая система не в состоянии, поэтому, чтобы обезопасить свой проект, его владельцы должны бороться с этим самостоятельно.

Выводы

Все вышеперечисленные проблемы актуальны до сих пор и какого то специального скрипта или программы для защиты вашего сайта от вредоносных кодов НЕ существует. В данных, вышеперечисленных ситуациях, спасение от падения сайта в выдачи и чтобы не допустит разрушения SEO вашего сайта, зависит только от Вас самих, как вы будете следить и управлять своим сайтом, так он и будет процветать, жить и "не болеть". Будьте внимательным вебмастером и ответственным администратором своего ресурса и тогда никаких проблем с SEO падение вашего сайта вы не увидите. А если кто еще не в курсе как правильно заниматься SEO оптимизации своего ресурса, может повысить знания в статье "SEO для чайников: простыми словами об оптимизации сайта!".