Вебмастера: выявить причину снижения позиций сайта алгоритмами Google становится все сложнее
В настоящий момент среди западных вебмастеров бытует мнение о том, что процесс выявления причин снижения позиций сайта при помощи алгоритмов Google становится все более трудновыполнимой задачей. Если разбираться в данном вопросе с глобальной точки зрения, то причины “проседания” сайта в выдаче Google всего две, первая из которых является технической ошибкой, допущенной вебмастером в процессе работы с ресурсом. Одним из примеров тому может послужить случайное закрытие одной или ряда страниц от индексации. Вторая причина – снижение позиций сайта, либо полное его удаление из выдачи самой поисковой системой, вследствие ручных санкций или обновления алгоритмов поисковых фильтров.
По мнению одного из давних участников форума WebmasterWorld, администратора раздела быттехника портала В Корзинку.ру, ответ на каждый вопрос подобного рода носит исключительно индивидуальный характер, поэтому максимально успешно решить вопросы, проанализировать и исправить возникшие ситуации можно совместно с SEO-компаниями. Ведь самостоятельно отслеживать апдейты алгоритмов Google становится все труднее.
Главный редактор Search Engine Roundtable, Барри Шварц считает, что вряд ли стоит отрицать наличие закономерности между ухудшением позиций веб-сайта и обновлением поисковых алгоритмов. Однако нельзя не учитывать тот факт, что поисковые фильтры Google обновляются, в среднем, дважды в день. Помимо этого, для определения истинной причины “проседания” позиций сайта приходится проводить регулярный мониторинг апдейтов, а также быть постоянно осведомленным о позициях конкурентов. Как известно, для вебмастера, работающего в одиночку, такая работа является невыполнимой задачей.