Не знаю как расшифровывается «АГС», но так принято называть алгоритм поисковой системы Яндекс, цель которого выявить и наказать сайты, пытающиеся искусственно влиять на позиции других сайтов в поисковой выдаче. В сентябре-октябре один из моих сайтов побывал под санкциями АГС-2015. Безусловно, в этом нет ничего хорошего, но это и не приговор!

Яндекс

Про существование подобных алгоритмов у Яндекса давно известно. В интернете полно информации и советов, как не попасть под фильтр АГС. Однако, это всё на уровне догадок, ведь суть алгоритма держится разработчиками в строгом секрете. Кроме того, они периодически меняют его, экспериментируют, пытаются улучшить. В этот раз их старания особенно массово задели веб-мастеров. По словам некоторых, пострадали даже те сайты, которые не торгуют ссылками и не покупают таковые.

Я не берусь судить, насколько эта информация достоверна. На моём пострадавшем сайте были и остаются рекламные ссылки. Да, их количество в результате произошедшего резко уменьшилось, может быть это сказалось на том, что фильтр АГС в итоге был снят. Но у меня есть и другое предположение почему так произошло.

Хотел бы уточнить, что я подобные ссылки расцениваю именно как рекламу. Я не пытаюсь их скрыть и замаскировать. Наоборот, они выводятся в отдельном блоке, который расположен в центре страниц и по виду напоминает Яндекс.Директ — тот же размер шрифта, цвет и рядом даже есть надпись, сообщающая, что это реклама. Разве веб-мастер не имеет права размещать у себя на сайте рекламу? Тем более так цивилизовано, да и, в принципе, в ограниченном количестве — максимум 2-3 ссылки на страницу.

Вот так выглядят санкции Яндекса:

Сайт под фильтром АГС-2015

Трафик с поисковой системы резко падает. Кроме того, полностью обнуляется индекс цитирования (тИЦ). В моём случае индекс цитирования вернулся практически сразу после моих действий, а вот трафик пришлось подождать.

Обнуление ТИЦ

Что, собственно, случилось? Обнуление тИЦ и проседание трафика пришлось на 9 сентября. Возгласы многих веб-мастеров не заставили себя долго ждать, поэтому я довольно быстро узнал о возможной причине произошедшего. Однако, учитывая, что я не перегибал палку с продажей ссылок, как-то не очень верилось, что это именно из-за этого.

Задавать вопросы Яндексу по этому поводу бесполезно. Ничего определённого вам не ответят. Всё по той же причине — не хотят, чтобы алгоритм АГС был раскрыт, да и вообще, чтобы пользователи хоть как-то его анализировали. На вопросы по причинам наложения санкций ответ обычно один — сайт не соответствует политике Яндекса. Какой именно — секрет, пользователи должны догадываться сами.

Мне показалось странным вот что:

Резкое увеличение числа страниц в поиске

То есть, незадолго до произошедшего вдруг более чем в два раза увеличилось число страниц сайта в поиске. Конечно, реально столько новых страниц у меня не появилось.

В поиск попали дублирующие страницы? У многих современных сайтов для страниц есть «красивые ссылки», а есть реальные. Те и другие работают и выводят одинаковую информацию. На моём сайте это тоже имеет место быть. Кроме этого, у меня существовали другие дублирующие страницы, например, в виде «версии для печати». От всего этого я избавился!

Дубли страниц — это плохо. В первую очередь — это плохо для самого сайта, ведь весомость страниц в глазах поисковиков дробится. Кроме того, наверное поисковики могут заподозрить что-то неладное, когда таких дублей слишком много. Кто знает, может Яндекс как раз на это и среагировал. Может этот параметр учитывается среди других в новом алгоритме АГС-2015.

Я не исключаю, что это простое совпадение. Да, я предпринял определённые действия, но и рекламных ссылок на сайте стало раза в 2-3 меньше. Санкции могли быть сняты по той и другой причине, может повлияли обе причины.

Во всей этой истории меня порадовало, что наложение санкций — это обратимый процесс, причём обратить его можно довольно быстро. Очевидно, что работа алгоритма АГС полностью автоматизирована. По этой причине не имеет смысла обращаться в Яндекс, нужно просто работать со своим сайтом, улучшать его, устранять косяки, а после этого ждать очередного захода поискового робота.

PS: От «красивых ссылок» я, конечно, не отказался. Я просто запретил индексирование в файле robots.txt реальных ссылок. Ну и постарался убрать все упоминания реальных ссылок в интерфейсе сайта. Использовать robots.txt можно и в отношении других дублирующих страниц, которые по каким-то причинам вам дороги.