Причины плохой индексации сайта


indexНередко у вебмастеров возникает ситуация плохой индексации сайта поисковыми системами. В 90% случаев это связанно не с проблемами самих поисковых систем, а с неправильными настройками сайта, ошибками в оптимизации или неправильными методами продвижения. Как показывает практика, большинство таких ошибок повторяются разными оптимизаторами, поэтому основные из них можно легко выявить. Основные, так как всех возможных ошибок не предусмотреть.

Большинство проблем с индексацией сайта сугубо технические. Например, если на сайте много внутренних ссылок на другие страницы этого сайта, то у бота поисковой системы могут возникать сложности с нахождением отдельных страниц. Или же если большая часть информации на страницы закрыта тегами noindex, то поисковая система может посчитать такую страницу ненужной, и проигнорировать её, хотя это уже будет принадлежать не процессу индексации, но для вебмастера индексация и появление страниц в выдаче зачастую почти одно и то же, так как без второго не нужно и первого. Итак, большинство причин сугубо технические, их и рассмотрим.

Причины плохой индексации страниц сайта:

Навигация по сайту. Тут я прежде всего имею ввиду навигационное меню. Дело в том, что для того чтобы попасть на внутренние страницы сайта, боту необходимы ссылки на них, например, с главной страницы. На многих сайтах для навигации используются Java-скрипты, но владельцы таких сайтов часто забывают о том, что поисковые системы такой навигации распознать не могут. Получается, что при таком раскладе на сайте всего одна страница, в нашем случае главная. Для того, чтобы такой ситуации не случилось, необходимы обычные ссылки с главной страницы на внутренние или ссылки на страницы рубрик, на которых в свою очередь будут ссылки на отдельные страницы. Если есть серьёзная необходимость в навигационном меню в виде Java-скрипта, то стоит сделать страницу «Содержание» с прямыми ссылками на все внутренние страницы, на которую поставить ссылку с главной. Так же могут помочь внешние ссылки на новые страницы сайта. Сюда же стоит отнести грамотную внутреннюю перелинковку.
Хостинг сайта. Вопрос очень важный. Во-первых, плохой хостинг может часто быть недорступным, это не только сделает сайт менее привлекательным для посетителей по мнению поисковых систем, но и может создать ощутимые проблемы с индексацией. Во-вторых, слабый хостинг может быть часто перегружен, и при обращении к нему бота поисковой системы ему может быть отказанно в доступе. Что уж и говорить про плесловутый поведенческий фактор и про то, как может повлиять на позиции сайта высокий показатель отказов, связанный с медленной работой сайта. Но это уже отход от темы.
Спам ключевиками. Со временем этот фактор приобретает всё большее занчение. Поисковые системы борются с «искуственной» оптимизацией, нарочным затачивание текса под ключевые запросы и чрезмерной их частотой, поэтому крайне негативно воспринимают страницы, более 20% текста которых — ключевые слова. На самом деле эта цифра — верхний предел и абсолютно точно доказанно, что плотность ключевых слов почти не влияет на ранжирование поисковыми системами, во всяком случае не является ключевым фактором, гораздо важдее в последнее время читабельность текста и его ориентированность на пользователя.
Внешние ссылки. Этот пункт относится как к проблемам с индексацией, так и к проблемам с её скоростью. Формы для добавления сайтов в поисковые системы не всегда обеспечивают должный эффкт, зачастую бота по несколько недель на сайте не видно. А вот внешние ссылки с хороших, часто индексируемых сайтов могут дать эффект. Часто обновляемые сайты бот посещает вплоть до нескольких раз в неделю, и по ссылкам с них легко найдёт ваш сайт. Кроме того, обилие внешних ссылок на внутренние страницы сайта застрахуют их от возможности не быть найденными ботами поисковых систем.
Невалидный html-код. Серьёзные ошибки в html коде могут повлиять на индексацию страниц. Конечно, большинство современных сайтов не пишутся «на коленке», они имеют профессиональные CMS, которые позволяют исключить грубые ошибки в кодах страниц, однако даже это не застрахует от них полностью. К тому же не редкость и использования самописных CMS, в них учесть все возможные ошибки крайне сложно.
Кроме этого, существуют нетехнические причины плохой индексации сайтов, например, редкообновляемый контент. Если при заходе на сайт робот поисковой системы не обнаруживает нового контента, и это происходит систематически, интервалы посещений могут снижаться или же сайт может полностью игнорироваться поисковой системой.

Таким образом, для нормальной индексации сайта необходим, прежде всего, доступ робота ПС к его страницам, наличие на них качественного, незаспамленного ключевиками контента, валидный html-код, соответствующий стандартам w3c. Проблемы с индексацией напрямую связанны с положением сайта в выдаче поисковых систем, поэтому их решению необходимо уделить повышенное внимание. На этом всё, желаю удачи!

Похожие темы:

Оставьте комментарий