Всем привет, меня зовут Алексей, я SEO-специалист и большой поклонник автоматизации, и когда появился ChatGPT, это стало для меня большим преимуществом. Я прекрасно понимал, что большую часть работы можно автоматизировать с помощью скриптов на Python, и это значительно упрощает любую работу в Интернете. И сейчас даже не нужно знать языки программирования, чтобы автоматизировать свою работу.
Я пишу много скриптов. Это в основном связано с индексацией, сканированием сайтов для поиска контактных данных владельцев, проверкой ссылок и т. д. В общем, для того, что совсем не требует креатива и усилий мозга.
Все, что делается с помощью ctrl+c, ctrl+v, я автоматизирую.
Я не знаю языков программирования, поэтому некоторые мои решения могут быть не оптимальными. Пишу скрипты, которые просто повторяют мои действия в браузере. Для работы SEO-специалиста этого более чем достаточно.
Подобную автоматизацию использую с начала 2023 года. Именно тогда нейросети начали приобретать широкую популярность. Также я использую их для написания текстов и поиска информации.
В этой статье расскажу об одном из кейсов по автоматизации. Вы узнаете, как можно честно сэкономить свое время и автоматизировать абсолютно рутинную задачу, которая могла бы стать мучением для каждого исполнителя.
Чем полезна автоматизация для клиентов
Для клиентов автоматизация может быть крайне полезной. Благодаря автоматизации вы не только сможете предлагать свои услуги по более низкой цене без потери качества, но и избежите многих ошибок, связанных с человеческим фактором. К тому же проекты выполняются быстрее из-за того, что скрипты банально выполняют рутинную работу намного быстрее человека. При этом качество работы останется неизменным.
Рекомендую использовать скрипты, которые выполняют исключительно работу, не требующую анализа. Обычно это сбор данных или автоматическое заполнение информации. В общем, то, что не требует креатива и требует действий формата ctrl+c, ctrl+v.
Работа с клиентом
Клиента я нашел на бирже. Это сайт torudeabi24.ee, который занимается ремонтными работами в Таллинне. После переезда с Drupal CMS на WordPress забыли перенести все метатеги со старого сайта на новый. Нужно было в очень сжатые сроки помочь клиенту восстановить метатеги title и description. Отдельной проблемой стало то, что не сохранились бэкапы старого сайта.
Сроки горели из-за того, что сайт очень старый и до переезда имел достаточно большой трафик, который сейчас почти полностью исчез. Дедлайн был 3 дня, но я справился за один благодаря автоматизации через Python-скрипт, который написал с помощью нейросети.
Решение проблемы с мета тегами
Я посмотрел сайт через сервис Web Archive, он делает копии страниц сайта со всего интернета. К счастью, сайт был очень старый и имел много копий оттуда, там я мог взять и метатеги. Еще перед началом работы над проектом я увидел, что старые URL-адреса полностью совпадают с новыми. Поэтому я мог получить полный список URL-адресов, просто просканировав сайт через Screaming Frog. Затем нужно было поочередно вводить URL-адреса в Web Archive и через код элемента искать title и description, а затем вставлять их в админку WordPress.

На сайте около 200 страниц. Если все делать вручную, это займет минимум 5-6 часов. Но, как я уже говорил, это работа из разряда ctrl+c, ctrl+v. Поэтому это может сделать за меня скрипт на Python.
Я написал простой скрипт, который автоматически собирал нужные метатеги и переносил их в нужные поля. Это не только сэкономило время, но и позволило избежать человеческих ошибок при копировании данных. Благодаря автоматизации работа была выполнена за один вечер.
Полный алгоритм действий:
- Спарсить сайт через Screaming Frog.
- Через первый скрипт собрать метатеги в Excel таблицу.
- Через второй скрипт вставить метатеги в админку WordPress.
Все скрипты написаны через ChatGPT. Я использую библиотеку Selenium и Geckodriver для запуска Firefox.
URL-адреса на Web Archive формируются по следующей формуле:
«https://web.archive.org/web/»+«<screenshot-date>/» + «<url-for-parsing>».
Где <screenshot-date> — это дата, когда сервис просканировал страницу, а <url-for-parsing> — URL-адрес, который нам нужно просканировать. Если дата скриншота в URL-адресе неверна, сайт сам перенаправляет на наиболее актуальную дату.
Первый скрипт
Логика первого скрипта:
Я даю ему Excel таблицу со списком URL-адресов.
Geckodriver открывает Firefox.
Поочередно открываются https://web.archive.org/web/20240425063633/<url-for-parsing>/. <url-for-parsing>/ он берет из списка, который я ему дал.
Скрипт должен сканировать страницы из Web Archive и добавлять их в таблицу во 2 и 3 столбцы.
То есть на выходе я должен получить таблицу со следующими столбцами: URL-адрес, Title, Description.
Далее буду использовать эту таблицу для второго скрипта, который уже добавит все эти метатеги в админку WordPress.
Второй скрипт
Логика второго скрипта:
Он переходит на страницу https://clientwebsite.com/123-login/. Это url сайта для логина, как админ сайта. Становится на задержку в 20 секунд. За это время я должен ввести данные админа.
Переходит на URL-адрес из нашей таблицы и должен искать кнопку редактирования по тексту ссылки «Редактировать страницу».
Вставляем в блок Yoast SEO метатеги Title и Description из столбцов 2 и 3. Я пытался сделать через поиск класса, но не получалось. Сам Chat переписал так, чтобы искать именно блок Yoast SEO.
Нажимаем на кнопку «Сохранить». Здесь уже нужно было искать button с классом «components-button editor-post-publish-button editor-post-publish-button__button is-primary is-compact».
Повторить пункты 2-4, пока URL-адреса не закончатся.
Важно: я никогда не даю нейросетям логины, пароли или что-то подобное. Рекомендую вводить их самостоятельно по методу из первого пункта. Вы никогда не можете быть уверены, что нейросеть не передаст эти пароли третьим лицам. Из-за этого у клиента могут быть значительные убытки.
Результаты

Клиент был приятно удивлен моей ценой и сказал, что другие фрилансеры просили как минимум в три раза больше. Но то, что другие делали бы вручную, я полностью автоматизировал и просто получил деньги. Именно благодаря нейросети я смог предложить такую цену. И именно благодаря ChatGPT выполнил эту задачу так быстро.
Отдельно хочу отметить, что на такой большой дистанции человек, скорее всего, допустил бы некоторые ошибки. Можно случайно перепутать title и description или скопировать данные из другого тега, а скрипт этих ошибок не допустит.
Результатами клиент был доволен. Он сказал, что проверил 10 основных URL-адресов, и ошибок нигде не было. Также отметил, что скорость выполнения работ приятно его удивила.
Затраты по времени
Я потратил около 1 часа на написание скриптов. Первый скрипт запустил вечером и просто занимался своими делами. Второй запустил на ночь. Я просто описал нейросети те действия, которые бы сам выполнял, и она написала мне готовый код. Осталось только установить необходимые библиотеки, запустить скрипты и просто получить свой гонорар как фрилансер.
Автоматизация значительно упростила процесс и сэкономила мне много времени. Такой подход позволяет выполнять даже большие задачи без стресса и лишних усилий.