Блог Новой студии

Обзор фатальных ошибок Яндекс Вебмастера

Обзор фатальных ошибок Яндекс Вебмастера

В предыдущем обзоре рекомендаций Яндекс Вебмастера мы рассмотрели все пункты, которые роботы Яндекса постоянно отслеживают и дают необходимые подсказки владельцу сайта для устранения множества ошибок.

Сегодня же мы детально разберём раздел фатальных ошибок, которые не просто мешают индексированию сайта в поисковых системах — из-за наличия этих ошибок сайт может просто не показываться в поисковой выдаче.

Итак, список фатальных ошибок в Яндекс Вебмастере состоит из следующих пунктов:

1. Сайт закрыт к индексации в файле robots.txt

Robots.txt это ключевой файл, который объясняет роботам поисковых систем куда на сайте им можно заходить, а куда нет. Если robots.txt полностью блокирует возможность посещения сайта роботами Яндекса, то о дальнейшей работе можно в принципе забыть. Никакие изменения в сайте поисковые системы просто не увидят. Поэтому очень важно, чтобы директивы robots.txt не только разрешали роботам поисковиков посещать сайт, но и вели их по сайту необходимым для правильной оптимизации образом.

2. Не удалось подключиться к серверу из-за ошибки DNS.

Ошибки DNS как правило происходят либо на стороне сервера, либо из-за неверной настройки пользователем согласованной работы домена и хостинга. Из-за ошибок DNS поисковик не понимает — какой домен прилинкован к вашему сайту и просто не показывает домен в выдаче.

3. Главная страница сайта возвращает ошибку

Когда поисковая система посылает на сайт запрос о его существовании она должна получить один из кодов ответов, который соответствует знаниям поисковика. Наиболее частые коды:
200 — страница существует и отображается
301 — страница перенаправляет всех на другую страницу
404 — страница не существует
500 — проблема страницы на стороне сервера

Важно чтобы сайт при запросе отдавал именно код 200. Только таким образом Яндекс поймет что с сайтом все в порядке и предложит его к поисковому ранжированию.

4. Обнаружены нарушения или проблемы с безопасностью

Яндекс тщательно следит за тем, чтобы посещение сайтов из поисковой выдачи было безопасно для компьютеров пользователей. Поэтому при наличии малейших угроз со стороны сайта поисковый робот сначала размещает рядом с сайтом в выдаче предупреждение о возможных проблемах, и если проблема не будет через какое-то время устранена, то просто уберёт ресурс из поисковой выдачи. Поэтому очень важно следить как за состоянием ресурса, так и за его безопасностью. Необходимо вовремя менять пароли и проводить сканирование сайта при помощи антивируса.

Выполнив рекомендации сайта по фатальным ошибкам и устранив их, вы значительно повысите доверие поисковых систем к сайту и хорошо представите сайты к выдаче.

Понравился пост?
Помоги другим узнать об этой статье, кликни на кнопку социальных сетей!

2016-12-01
1 голос2 голоса3 голоса4 голоса5 голосов ( 2 оценок, среднее: 5,00 из 5 )
Загрузка...

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

*