“Что не так с моим сайтом?”

Есть у нас в отделе SEO-аналитики интересный пример того, как в SEO делать не стоит. 

У клиента — типография в Москве. Ранее он работал по SEO с раскрученными агентствами из московского топ-10 Tagline (с двумя подряд). Но места в рейтингах — это одно, а реальная результативность — другое. Органический трафик его типографии и с Яндекса, и с Гугла неуклонно падал последний год. Подрядчики сваливали вину то на YATI, то на BERT, то на засилье агрегаторов (которых, кстати, в типографских услугах и нет особо).  

Клиент пришел к нам сначала на аналитический консалтинг с вопросом: “Ребята, что не так с моим сайтом? Точно ли проблема во внешних причинах или подрядчики что-то не так делают?”.

Ну, мы говорим: “Вообще на вас работали опытные ребята (мы же с ними дружим в общей digital-тусовке), поэтому не должны были налажать. Но если трафик падает последний год, тут что-то не так — проверим и вернёмся.”

“Привет из прошлого”

Сайт под NDA, поэтому дать ссылку не можем, но постараемся передать удивительную простоту ситуации словами.

Для начала, аналитики заглянули в техническую оптимизацию. Помимо явных проблем с валидностью legacy-кода сайта, обнаружили, что в robots.txt стоят какие-то странные команды, запрещающие индексацию графических и медийный файлов — картинок и видео. Айц, это не хорошо. На каждой странице сайта типографии — по 30 уникальных изображений (один из коммерческих факторов ранжирования, кстати), но поисковым роботам запрещено их индексировать. Поправить легко, потенциальный профит с большой вероятностью будет хорошим.

Но дальше было совсем интересно — на сайте было почти 1000 страниц. И с виду они выглядели круто, типа такой массив узкоспециализированной информации. По истории работы с файлами на сервере мы увидели, что многие из этих страниц создавались как раз в последний год. Начали копать в этом направлении и проверять вручную, что там и как, и столкнулись с занятной историей:

  • В каждом жирном разделе сайта под высокочастотный запрос было нарезано по 15-20 страниц под узкие группы (типа, не просто “печать визиток”, а “печать черных визиток тиснением”).
  • Проблема в том, что при проверке реальной спрашиваемости в SERP Яндекса и Гугла оказалось, что эти страницы не имели за собой валидной семантики. То есть заказчики просто не ищут информацию по таким запросам (точнее, наверняка ищут, но один раз в два месяца и эта статистика не попадает в поисковую базу).
  • Вероятно, страницы были нарезаны кем-то из оптимизаторов на базе искусственной генережке (скрещивании) запросов — в результате получилась куча страниц без поискового спроса.
  • При дальнейшем анализе выяснилось, что все эти искусственно нарезанные страницы еще и конкурируют друг с другом за одинаковую семантику. Кластеризация методом hard по топ-10 показала, что у конкурентов все эти запросы сидят на 5-7 страницах и успешно продвигаются в топе.
  • Ну и текстовый анализ добил причину проблемы — у страниц был явный текстовый переспам, некачественные рерайты и искусственные вхождения ключей.

“На семь бед — один Delete”

По результатам аналитики мы сформулировали для клиента гипотезу, что, вероятнее всего, достаточно открыть медиафайлы для индексирования, удалить страницы под искусственную генережку, переработать тексты на оставшихся страницах — и всё поправится.

Само собой, сказали, что это могут сделать текущие оптимизаторы. Но клиент выбрал прийти на продвижение к нам.

Итого:

  • Открыли медиафайлы для индексирования;
  • Запилили эксперимент по быстрому удалению страниц под несуществующий семант в нескольких директориях (в остальных не трогали для чистоты выводов);
  • Вычистили внутреннюю структуру сайта;
  • Правки делали в начале июля. Уже от этих действий в августе с органики клиент получил на 104 звонка больше, чем за июль. Гипотеза подтвердилась.

Теперь пойдем применять это в других разделах, поработаем с on-page оптимизацией, переделаем кластеризацию и поможем сайту занять своё место в топе 🙂

 

Советы

  • Не захламляйте свой сайт. Если есть какая-то гениальная идея у оптимизатора и вы не вполне уверены в ней, лучше закажите платную консультацию от независимых экспертов и лишь потом давайте “добро” на такие действия. Собрать два мнения лишним не бывает.
  • Внимательнее контролируйте, как подрядчики работают с кластеризацией и сбором семантики. Если вручную — всё плохо и ни к чему хорошему не приведёт. Если же умеют кластеризовать методом hard по SERP — уже лучше.
  • Если для запроса нет спрашиваемости хотя бы в 30 показов в месяц, с большой вероятностью ручная оптимизация под них просто не окупит вложения. Если же семантика вообще генерится автоматически, побойтесь поисковых нейросетей и откажитесь от такой истории — иначе получите камень на шее своего сайта. 

Постскриптум

Зачем такую искусственную нарезку сделали уважаемые топовые оптимизаторы из звездных рейтингов — не понятно, но можно порассуждать. 

Дело вряд ли в том, что “они плохие” (ведь они хорошие и двигают крупные проекты, мы-то знаем). 

Скорее всего, дело лишь в том, что этот проект попал в руки младшего оптимизатора без четкой системы контроля. И этот оптимизатор целый год оправдывал тариф на “нарезку уникальных страниц, которых нет у конкурентов”. Без сбора валидной семантики и не на базе кластеризации. 

Печально… ведь клиент не просто не получил ранжирование по искусственной семантике, но ещё и разводящие директории со средне- и высокочастотными запросами стали падать.

Анализ качества работы сайта / Составление прогнозов и оценка спроса / Техподдержка сайтов и наполнение контентом /