Мене звати Олексій, я SEO-спеціаліст та великий фанат автоматизації, і коли з’явився ChatGPT, це стало для мене великою перевагою. Я чудово розумів, що велику частину роботи можна автоматизувати через скрипти на Python, і це робить будь-яку роботу онлайн набагато простішою. І зараз навіть не потрібно знати мови програмування для того, щоб автоматизувати свою роботу.

Я пишу багато скриптів. Це переважно пов’язано з індексацією, скануванням сайтів для пошуку контактних даних власників, перевіркою посилань тощо. Загалом для того, що зовсім не вимагає креативу та зусиль мозку.

Усе, що робиться через ctrl+c, ctrl+v, я автоматизую.

Я не знаю мов програмування, тому деякі мої рішення можуть бути не оптимальними. Пишу скрипти, які просто повторюють мої дії в браузері. Для роботи SEO-спеціаліста цього більш ніж достатньо.

Схожу автоматизацію використовую з початку 2023 року. Саме тоді нейромережі почали набувати широкої популярності. Також я використовую їх для написання текстів та пошуку інформації.

У цій статті розповім про один з кейсів з автоматизації. Ви дізнаєтесь, як можна чесно зекономити свій час та автоматизувати абсолютно рутинне завдання, яке могло б стати тортурою для кожного виконавця.

Чим корисна автоматизація для клієнтів

Для клієнтів автоматизація може бути вкрай корисною. Завдяки автоматизації ви не лише зможете пропонувати свої послуги за нижчою ціною без втрати якості, а й уникнете багатьох помилок, пов’язаних з людським фактором. До того ж проєкти виконуються швидше через те, що скрипти банально виконують рутинну роботу набагато швидше за людину. Водночас якість роботи залишиться незмінною.

Рекомендую використовувати скрипти, які виконують виключно роботу, що не потребує аналізу. Зазвичай це збір даних чи автоматичне заповнення інформації. Загалом, те, що не потребує креативу та вимагає дій формату ctrl+c, ctrl+v.

Про клієнта

Клієнта я знайшов на платформі Freelancehunt. Це сайт torudeabi24.ee, який займається ремонтними роботами в Таллінні. Після переїзду з Drupal CMS на WordPress забули перенести всі метатеги зі старого сайту на новий. Треба було у дуже стислі терміни допомогти клієнту відновити метатеги title і description. Окремою проблемою стало те, що не збереглися бекапи старого сайту.

Терміни горіли через те, що сайт дуже старий та мав до переїзду досить великий трафік, який зараз майже повністю зник. Дедлайн був 3 дні, але я впорався за один завдяки автоматизації через Python-скрипт, який написав за допомогою нейромережі.

Розв'язання проблеми

Я подивився сайт через сервіс Web Archive, він робить копії сторінок сайту з усього інтернету. На щастя, сайт був дуже старий та мав багато копій звідти, там я міг взяти і метатеги. Ще перед початком роботи над проєктом я побачив, що старі URL-адреси повністю збігаються з новими. Тож міг отримати повний перелік URL-адрес, просто просканувавши сайт через Screaming Frog. Потім потрібно було закидати по черзі URL-адреси у Web Archive та через код елемента шукати title і description і далі вставляти їх в адмінку WordPress.

На сайті близько 200 сторінок. Якщо все робити руками, це забере мінімум 5-6 годин. Але, як я казав, це робота з розряду ctrl+c, ctrl+v. Тож це може за мене зробити скрипт на Python.

Я написав простий скрипт, який автоматично збирав потрібні метатеги та переносив їх у потрібні поля. Це не тільки зекономило час, а й дозволило уникнути людських помилок під час копіювання даних. Завдяки автоматизації робота була виконана за один вечір.

Повний алгоритм дій:

  1. Спарсити сайт через Screaming Frog.
  2. Через перший скрипт зібрати метатеги в Excel таблицю.
  3. Через другий скрипт вставити метатеги в адмінку WordPress.

Всі скрипти написані через ChatGPT. Я використовую бібліотеку Selenium та Geckodriver для запуску Firefox.

URL-адреси на Web Archive формуються за такою формулою:

«https://web.archive.org/web/»+«<screenshot-date>/» + «<url-for-parsing>». 

Де <screenshot-date> — це дата, коли сервіс просканував сторінку, а <url-for-parsing> — URL-адреса, яку нам треба просканувати. Якщо дата скриншоту в URL-адресі неправильна, сайт сам перенаправляє на найбільш актуальну дату.

Перший скрипт

Логіка першого скрипту:

  1. Я даю йому Excel таблицю зі списком URL-адрес.
  2. Geckodriver відкриває Firefox.
  3. Відкриваються по черзі https://web.archive.org/web/20240425063633/<url-for-parsing>/. <url-for-parsing>/ він бере зі списку, який я йому дав.
  4. Скрипт має сканувати сторінки з Web Archive та додавати сам до таблиці у 2 та 3 стовпчик.

Тобто на виході я маю отримати таблицю з такими стовпчиками: URL-адреса, Title, Description. Далі використовуватиму цю таблицю для другого скрипту, який уже додасть усі ці метатеги в адмінку WordPress.

Другий скрипт

Логіка другого скрипту:

  1. Він переходить на сторінку https://clientwebsite.com/123-login/. Це url сайту для логіну, як адмін сайту. Стає на затримку у 20 секунд. За цей час я маю ввести дані адміна.
  2. Переходить на URL-адресу з нашої таблиці та має шукати кнопку редагування за текстом посилання «Редагувати сторінку».
  3. Вставляємо в блок Yoast SEO метатеги Title та Description зі стовпчиків 2 та 3. Я намагався зробити через пошук класу, але не виходило. Сам Chat переписав так, щоб шукати саме блок Yoast SEO.
  4. Натискаємо на кнопку «Зберегти». Тут вже треба було шукати button з класом «components-button editor-post-publish-button editor-post-publish-button__button is-primary is-compact».
  5. Повторити пункти 2-4, поки URL-адреси не закінчаться.
Важливий дисклеймер: я ніколи не даю нейромережам логіни, паролі чи щось таке. Рекомендую вводити їх самостійно за методом з першого пункту. Ви ніколи не можете бути впевнені, що нейромережа не передасть ці паролі третім особам. Через це у клієнта можуть бути значні збитки.

Результати

Клієнт був приємно вражений моєю ціною та казав, що інші фрилансери просили щонайменше втричі більше. Але те, що інші робили б вручну, я повністю автоматизував і просто отримав гроші. Саме завдяки нейромережі я зміг запропонувати таку ціну. І саме завдяки ChatGPT виконав це завдання так швидко.

Окремо хочу зазначити, що на такій великій дистанції людина, найімовірніше, припустилася б деяких помилок. Можна випадково переплутати title та description чи скопіювати дані з іншого тегу, а скрипт цих помилок не допустить.

Результатами клієнт був задоволений. Він сказав, що перевірив 10 основних URL-адрес, і помилок ніде не було. Також відзначив, що швидкість виконання робіт приємно його здивувала.

Витрати за часом

Я витратив близько 1 години на написання скриптів. Перший скрипт поставив працювати ввечері та просто займався своїми справами. Другий запустив на ніч. Я просто описав нейромережі ті дії, які б сам виконував, і вона написала мені готовий код. Залишилося лише встановити необхідні бібліотеки, запустити скрипти та просто отримати свій гонорар як фрилансер.

Автоматизація значно спростила процес і зекономила мені багато часу. Такий підхід дозволяє виконувати навіть великі завдання без стресу та зайвих зусиль.

Порівняння ручного та автоматизованого підходів

Для наочності наведу таблицю. Ви побачите, наскільки скрипт через нейромережу був цінним у цьому кейсі.

Параметр Ручна робота Автоматизація
Час виконання 7-8 годин на 150 пар метатегів 30-40 хвилин для всього обсягу робіт
Ймовірність помилки Висока через людський фактор Мінімальна, адже скрипт виконує виключно те, що ви йому сказали
Вартість $120 за умови простої оплати за години $50 за написання скрипту
Масштабування Повільне — кожен новий обсяг потребує додаткового часу Миттєве — можна обробити великі обсяги за той самий час

Якщо вам потрібні послуги, які пришвидшать виконання завдань завдяки автоматизованим підходам, пишіть мені. Я з радістю виконаю ваш проєкт.