1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
Loading ... Loading ...

Какие изменения произойдут в области SEO после Минусинска, ждать ли новых фильтров?

В свете недавних событий, произошедших в SEO-отрасли (внедрение Яндексом фильтров «Минусинск» и «АГС»), специалисты активно готовятся к появлению новых тенденций на рынке продвижения, которые смогут еще сильнее усугубить сложившуюся ситуацию. Ведь несмотря на желание оптимизаторов разработать более-менее эффективную систему для заработка, Яндекс неизменно стремится сломать ее, чтобы создать собственную, сообщается в seo-блоге 39saitov.ru.

Современные SEO-специалисты испытывают жесткий прессинг со стороны поисковой системы, что в результате за последние пару лет уничтожило большую часть ссылочного бизнеса. И каких-либо оптимистичных сдвигов ожидать не приходится. Не произошло существенных изменений в стиле работы оптимизаторов. Как оказалось, рынок SEO услуг нацелен на достижение релевантной выдачи, которая тесно взаимосвязана с его инфраструктурой. Эффективности коммерческой выдачи способствует легкомыслие нерадивых оптимизаторов. Снижения ее релевантности удалось достичь только путем отказа от торговли ссылками.

Безусловно, нынешний рынок неидеален, однако он не стоит на месте. Внедрение новых фильтров является лишь частью проблемы: под Минусинск попадают сайты, скупающие SEO-ссылки, а АГС наказывает их продавцов. Очень скоро некомпетентным оптимизаторам придется окончательно отказаться от ссылочного фактора. И что тогда?

В этом случае стоит ожидать появления принципиально нового фильтра – текстового. Не важно, какое он получит название, ясно лишь, что нанесет сокрушительный удар по дешевому копирайтингу, а также по ресурсам, созданным в стиле «Миралинкс». Иными словами, пострадают все, кто специализируется на наполнении сайтов бессмысленными текстами, напичканными огромным количеством «ключевиков». Этот фильтр будет беспощадно закрывать так называемые контентные проекты, не несущие в себе какой-либо смысловой нагрузки. 

И все же, почему Яндекс оттягивает момент внедрения идеи пессимизации сайтов за высокие показатели тошноты страниц? По той же причине, которая определила очередность запуска предыдущих двух фильтров – для обеспечения собственной безопасности. Благодаря постепенному введению фильтров, поисковику удается параллельно разрешать кризисные ситуации, адаптироваться под преобразования, происходящие внутри его алгоритма.  

Хаос, образовавшийся в выдаче, прежде всего обусловлен обновлением BigData, заходящей в алгоритм MatrixNet. В итоге нормативы качественного анализа ссылок внезапно оказались искаженными. Это повлекло за собой сбой системы, анализирующей текстовый контент на сайтах. Все произошедшие изменения вынудили Яндекс обратиться к ручному механизму контроля трафика по самым важным тематикам, после чего подключить и автоматический механизм, сохраняющий нормативы метрик ранжирования. Через некоторое время эти параметры сравнивались с текущими, выявлялись неточности нормировок, вносились коррективы в алгоритм.

Нам эти процессы представляются, как случайные события – мощные эпизодические колебания трафика и изменения позиций, которые не поддаются логическому анализу. 

На фоне продолжения этих процессов и интенсивности раскачивания мы сможем узнавать о текущем состоянии алгоритма, все еще испытывающего давление из-за внедренного Минусинска. Лишь после полного возобновления стабильности поисковика можно ожидать внедрения нового фильтра – текстового аналога ссылочного Минусинска. 

Сейчас перед Минусинском стоит задача полного уничтожения индустрии торговли ссылками, и он весьма успешно справляется с ней – заметно пострадали такие мощные биржи, как Сапа и ее аналоги. Несколько сложнее дело обстоит со статейными ссылками, которые поисковой системе пока не удается выявлять на 100%. Собственно, поэтому область продажных SEO-ссылок достаточно активно преобразовывается в индустрию статейных.

Понятно, что в дальнейшем разрушение индустрии ссылкоторговли будет вестись не на уровне ссылок, а на уровне целых статей. То есть, анализу будет подвергаться качество всего материала, его соответствие тематике сайта.

Индексация документов и принятие решение об их дальнейшей судьбе (оставление в индексе либо исключение из него) осуществляется на основании двух кворумов качества. При наличии в интернет-пространстве достаточного количества материалов с аналогичным качеством, он может просто не пройти проверку. Если же документ размещается на сайте с высоким уровнем доверия, то он может на вполне законных основаниях остаться в индексе.  

Крупные порталы допускают практику перемещения в индексе публикуемых на их страницах материалов. Самыми бесполезными считаются тексты, которые не проходят проверку на дублирование (семантическую схожесть). Многие SEO-специалисты на собственном опыте убедились в том, что клонирование – это основная причина слабого ранжирования сайта. Однако стоит отметить, что готовящийся к внедрению фильтр только этой меркой ограничиваться не станет. Он будет учитывать количество страниц, перемещаемых в индексе, и при увеличении значений – беспощадно пессимизировать сайт. Иными словами, если на сайте интернет-магазина будет размещаться определенное количество временно бесполезных страниц (к примеру, по причине публикации на них сезонных товаров), новый фильтр сможет применить к нему соответствующие санкции. 

В большей степени это затронет возрастные коммерческие ресурсы, в архивах которых скопилось огромное количество неактуальных или устаревших товаров. Таким сайтам специалисты рекомендуют уже сейчас начинать «генеральную уборку», направленную на удаление непопулярных страниц. В качестве альтернативы можно установить на них запрет в robots.txt, тем самым сигнализируя поисковику об отсутствии намерения включать в ранжирование страницы с таким содержанием.

Эти рекомендации эффективны для сайтов, входящих в категорию «электронная коммерция». А вот ресурсы, выполненные в стиле Миралинкс, где о полезности страниц даже говорить не приходится, ждут очень сложные времена. Основная часть размещенных на них статей так или иначе не пройдет кворум полезности. Сегодня они поголовно исключаются из индекса, а с введением нового фильтра неизменно попадут под санкции. 

По аналогии с Минусинском, предполагается постоянное обновление статейного фильтра и применение двух факторов ранжирования – качества бесполезных материалов и их количества. Каждый апдейт будет расширять возможности нового фильтра, поэтому прежде всего он удалит из выдачи статейки самого низкого качества.

Что предпринять в профилактических целях?

1. Отказаться от размещения ссылок на непопулярных сайтах в никому не нужных статьях. 
2. Никогда не публиковать на страницах своего сайта подобных материалов.
3. Создавать интересные сателлиты, пользующиеся популярностью у реальных людей.

Спасибо за ретвит этой записи, если вам понравился материал, подпишитесь на обновления блога по RSS или по почте:

Читать в Яндекс.Ленте Добавить в Google Reader
1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
Loading ... Loading ...

Рекомендую прочесть

Подпишись на RSS Следите за обновлениями в Twitter!
ВверхВверх