Как провести SEO-аудит контента с помощью Screaming Frog

Сегодня мы рассмотрим аудит SEO-контента сайта и реализацию стратегии «обрезка контента». Я расскажу...

11 декабря 8 минут SEO

Сегодня мы рассмотрим аудит SEO-контента сайта и реализацию стратегии «обрезка контента». Я расскажу обо всем процессе: от сканирования вашего сайта с помощью Screaming Frog до работы с данными в Google Sheets и принятия решений по страницам, которые показывают низкие результаты.

«Обрезка контента» — это удаление малоэффективного и устаревшего контента с вашего сайта. Это контент, который уже не приносит пользы сайту, поэтому лучше обрезать «нездоровое разрастание», чем позволить ему оставаться без изменений.

Это может быть контент, созданный давно. Допустим, ваш сайт запущен в 2018 году, и с тех пор вы написали много статей, часть которых сейчас не актуальна и просто занимает место. Чтобы улучшить ваши показатели, вы удаляете некоторые старые страницы с низкими показателями. Это и есть обрезка.

Такая стратегия поможет сайту лучше работать, Google — лучше находить важные страницы на сайте, а также избежать каннибализации контента. Если есть хорошие темы, которые вы уже публиковали, увидите, что их возможно стоит переписать и снова получить рост трафика.

Я применяю этот метод к старым сайтам, которые обычно потеряли трафик после осеннего обновления Google Core Update.

Сканируем страницы

Самое первое — открываем программу для сканирования сайтов Screaming Frog.

Сначала нужно зайти в раздел настроек и выбрать интеграцию с Google Search Console. Конечно, для принятия обоснованных решений нужно просмотреть все важные данные для вашего сайта.

Сканируем страницы

Я уже подключил Google-аккаунт и выбрал свой сайт. В разделе «Search Analytics» выбираю период — последний год. Так как хочу принять обоснованное решение и увидеть, работали эти страницы за последний год или нет.

Сканируем страницы-1

Остальные настройки не трогаем и можем перейти к интеграции Google Analytics 4.

Сканируем страницы-2

Я сделал то же самое и интегрировал тот же аккаунт. Для диапазона дат также выбираю последний год. Все остальное оставляю типичное.

Решение по статьям нужно принимать обоснованно. Если у вас подключены конверсии и некоторые публикации имеют низкие показатели, но хорошо конвертируются, нужно понять, почему они так хорошо конвертируются, почему они не показывают хороших результатов по органическому трафику.

То есть если статья приносит мало трафика, но много конверсий, ее не нужно в слепую удалять. Стоит сделать некоторые коррективы, чтобы попытаться привлечь больше органического трафика на эту статью. То же самое касается страниц, которые получают много прямого трафика или реферальных внутренних переходов в Google Analytics, но не получают органического трафика в Search Console. Вам стоит разобраться, почему люди в целом заинтересованы в этом посте и почему он показывает хорошие результаты.

Далее советую настроить парсинг даты публикации. Это можно сделать с помощью функции Custom Extraction.

функции Custom Extraction

Когда мы добавили эти две системы и все настроили, просто начинаем сканирование сайта. У меня стандартная настройка сканирования от Screaming Frog.

Учтите, что API дает информацию только для 2000 страниц в день. Если у вас сайт более чем 2000 страниц, то вам этого лимита не хватит. Поэтому либо загружайте список сразу выбранных урлов, либо дождитесь моей статьи о том, как этот лимит можно законно обойти.

Постепенно вы будете видеть, что строка API начинает заполняться. Если мы посмотрим на раздел Search Console, можно увидеть, что данные постепенно заполняются.

посмотрим на раздел Search Console

Работа с выгруженными результатами

Итак, когда процесс завершен, сканирование полностью выполнено, мы можем экспортировать это в файл CSV. Переходим в раздел internal и загружаем. Я назову файл, например, «Content Audit Site» и сохраню на рабочий стол. Затем загружаем его в Google Sheets.

Начинаю удалять ненужное: тип содержимого, статус, мета ключевые слова и прочее. Я обычно выделяю колонки сессий GA4 оранжевым цветом, а колонки Google Search Console — голубым.

Работа с выгруженными результатами

Добавляем столбик «Решение». В нем мы будем писать, что дальше будем делать с конкретной страницей. После этого сортируем все по колонке Clicks.

Принятие решений

Я прохожусь по каждому url-адресу, смотрю на показатели и принимаю решение.

Удаление

Если количество кликов от 0 до 5 и отсутствуют конверсии, я маркирую страницу как кандидата на удаление.

Однако при оценке страницы важно обратить внимание на несколько аспектов:

  1. Свежие статьи могут еще не иметь высоких показателей трафика в сравнении со старыми, поэтому дайте новому контенту время перед тем, как делать выводы о его эффективности.
  2. Перед удалением страницы убедитесь, что проверили наличие бэклинков. Качественные бэклинки могут значительно повышать авторитет вашего сайта в глазах поисковых систем. Удаление страниц с ценными внешними ссылками может негативно повлиять на общий рейтинг сайта.

Обновление

Если страница имеет много просмотров, но мало кликов, и при этом она опубликована давно, я обычно решаю ее обновить. По опыту скажу, что после обновления такой контент часто получает новый толчок в виде увеличения трафика. Обновление может включать пересмотр ключевых слов, улучшение заголовков и обновление информации, что делает статью более привлекательной для пользователей и поисковых систем.

Склейка

Часто бывает, что на одну и ту же тему написано 2-3 статьи. В таком случае они могут каннибализироваться. Это значит, что они ранжируются по идентичным ключевым запросам и мешают друг другу. Google не понимает, какая из статей должна ранжироваться по этому запросу, и не дает хорошие позиции ни одной из них.

В таком случае, проверив дополнительно вручную, имеется ли каннибализация, рекомендую «склеить» такие статьи. Выбираем ту, которая ранжируется лучше, и на нее через 301 редирект «приклеиваем» остальные.

Оставить как есть

Если контент страницы хорошо ранжируется, приносит достаточно трафика и конверсий, его затрагивать не стоит. Поэтому напротив таких урлов ставим статус «Оставить как есть».

Результат аудита

После завершения всех описанных этапов я получаю четкий и структурированный план действий по управлению контентом. Эта таблица становится моим главным ориентиром для принятия взвешенных решений, которые направлены на улучшение эффективности сайта.

На основе анализа я формирую конкретный план работ:

  • Страницы, которые нужно удалить, сразу передаю контент-менеджеру для удаления.
  • Страницы, требующие склеивания, прорабатываю самостоятельно или поручаю эту задачу разработчику.
  • Материалы, которые стоит обновить, добавляю в контент-план для копирайтера с четкими рекомендациями по доработке.

Такой системный подход позволяет четко распределить обязанности между командой, минимизировать хаос в процессах и быстро внедрять необходимые изменения.

И так резюмируем, очень важно держать руку на пульсе вашего контента. Мне нравится иметь полный обзор всего контента на моих сайтах, и я всегда советую своим клиентам делать то же самое. Это позволяет оценить эффективность ваших усилий. Если вы вкладываете много денег в контент, который не работает, это знак, что нужно изменить подход.

Надеюсь, я смог наглядно показать, как проводить аудит вашего контента, выявлять слабые места и совершенствовать стратегии.

Была ли эта статья полезной?

19 из 19 считают статью полезной

Рейтинг: 5.00
Войти на сайт Регистрация Забыли пароль? Помощь