Перейти до вмісту

Ticket to Online

Лог-файли як рентген SEO: що реально показує серверний лог і як знайти «завислі» або марні URL

Коли сайт втрачає видимість, а технічний аудит наче «чистий», лог-файли стають тим самим рентгеном, який показує, що відбувається всередині. Це сирі записи кожного запиту до сервера: хто прийшов (бот чи користувач), що попросив (URL), що отримав (статус-код), скільки це тривало й важило. Для SEO це безцінно: саме логи відповідають на питання, куди витрачається crawl budget і чому частина сторінок так і не потрапляє в індекс.

Що насправді показують логи

Серверні логи — це не «ще один звіт», а об’єктивна телеметрія. На відміну від аналітики чи сканерів, вони фіксують реальні візити ботів пошукових систем у реальному часі. Завдяки їм ми бачимо, як Googlebot, Bingbot або інші краулери рухаються сайтом, де «спотикаються» та що ігнорують.

Передусім звертайте увагу на ключові поля: дата й час запиту, метод (GET/HEAD), повний URL, код відповіді (200/301/404/5xx), розмір відповіді, user-agent і час обробки. Цього достатньо, щоб розкласти краулінг по поличках і зрозуміти, де site health просідає.

Чим логи корисніші за інші дані? Вони показують саме те, що відбувається між ботом і сервером, без вибірки, агрегацій чи затримок. Ми бачимо 301-ланцюжки, 5xx-сплески, дублікати з параметрами, петлі пагінації, а також чи дійсно Googlebot заходить на важливі сторінки.

Що ми часто знаходимо на проєктах Ticket to Online? За нашими аудитами, 15–35% усього бот-трафіку з’їдають технічні або малокорисні URL: фільтри з безкінечними параметрами, сторінки сортування, календарні архіви, дубльовані пагінації, внутрішні пошукові результати.

Який бонус для швидкодії? Логи підказують, де сервер буксує. Якщо median TTFB для ботів у 2–3 рази вищий, ніж для користувачів, це марнує бюджет обходу та зменшує глибину краулінгу.

Після такої діагностики ми отримуємо не просто список проблем, а карту руху ботів по сайту з пріоритетами виправлень.

Як підготувати лог-дані до аналізу

Спершу домовляємось із хостингом/DevOps про вибірку access.log за 30–60 днів і виключаємо чутливі поля. Далі — нормалізуємо часові пояси, фільтруємо боти з валідацією (для Googlebot — reverse DNS-перевірка), об’єднуємо з картою сайту, списком канонічних URL і даними власного сканера. Підійдуть GoAccess, Screaming Frog Log File Analyser, ELK або навіть SQL/BigQuery — головне, щоб ви могли будувати зрізи по кодах, директоріях і параметрах.

Перед наступним блоком важливо розуміти: «завислі» чи марні URL — це не завжди «сміття». Часто це наслідок архітектури: фільтри, сортування, трекінгові метки, пагінації. Наше завдання — навчити ботів їх не витрачати.

Ознаки «завислих» або марних URL у логах:

    • Високий відсоток бот-відвідувань на сторінки з ?utm=, ?page=, ?sort=, комбінації параметрів або нескінченні фільтри.
    • Ланцюжки 301/302 довжиною 2+ переходи, особливо між http/https, www/non-www, зі слешем/без.
    • Часті 404/410 по шаблонних шляхах (старі категорії, видалені товари, тестові директориї).
    • 5xx-сплески в пікові години краулу — сигнал, що сервер «гасить» бота, і той скорочує глибину обходу.
    • Низька частота візитів на дійсно індексовані money-сторінки в порівнянні з технічними URL.
    • Дублікати з різними параметрами й однаковим контентом (видно по розміру відповіді та шаблону).

Після виявлення таких патернів ми сегментуємо URL за типом проблеми й оцінюємо «вартість» помилки — скільки бот-хітів вона з’їдає та як впливає на індексацію.

Що робити: алгоритм чистки й економії crawl budget

алгоритм чистки й економії crawl budgetПлан дій має бути покроковим і вимірюваним. Працює проста формула: прибрати шум → спростити маршрути → прискорити сервер.

Чекліст виправлень, який ми застосовуємо:

    • Перерізати 301-ланцюжки до 1 редиректу, уніфікувати слеші, протоколи та хости.
    • Закрити технічні шляхи в txt, а там, де потрібні — додати noindex, follow або канонікали.
    • Зменшити простір параметрів: прибрати UTM з внутрішніх лінків, частину фільтрів зробити статичними або обмежити комбінації.
    • Оптимізувати пагінацію: ліміти сторінок, чіткі canonical і навігація без пасток «календарів».
    • Видавати 410 для безповоротно видалених сторінок, 404 — тільки коли справді невідомо, що це.
    • Прискорити відповіді: кешування, CDN, стиснення (Brotli/Gzip), оптимізація TTFB для важливих шаблонів.
    • Підняти внутрішню лінковку на пріоритетні URL, щоб боти частіше їх знаходили.

Після впровадження змін обов’язково робимо повторний лог-аудит і дивимось на KPI: частка бот-хітів на індексовані сторінки, скорочення 404/5xx, зменшення ланцюжків 3xx, зростання частоти візитів на «гроші»-URL, падіння median TTFB.

Лог-файли — це не «технічна магія», а найчесніший спосіб подивитись, як пошукові боти насправді взаємодіють із сайтом. Вони показують, де ви втрачаєте бюджет обходу, чому пріоритетні сторінки рідко відвідуються й де сервер гальмує. Якщо вам потрібен практичний аудит із чітким планом дій і вимірюваними метриками — команда «Агентство маркетингу Ticket to Online» проведе лог-аналіз, прибере шум у краулінгу та поверне вашому сайту видимість там, де вона приносить гроші.

Поділитися в соціальних мережах:

Share on facebook
Share on twitter
Share on linkedin
Share on telegram

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

1
Крок 1
2
Крок 2
3
Крок 3
4
Крок 4

Ваша скидка

0 $

Ваша скидка

10 $

Ваша скидка

15 $

Ваша скидка склала

20 $

На яку пошту прислати ціну роботи?