65% ruchu w internecie to boty — co to oznacza dla twojej strony
GA4 pokazuje ci 35% tego, co dzieje się na twojej stronie. Resztę generują boty — i coraz większa część z nich to asystenci AI działający w imieniu twoich potencjalnych klientów.
Liczby, które zmieniają perspektywę
Marcin Kamiński z Top Online mierzy ruch botów AI server-side przez narzędzie Agent Monitor. Nie odpytuje modeli AI co mówią o jego klientach — on patrzy na to, co realnie wchodzi na serwer.
Dane są jednoznaczne: 65% ruchu w internecie to boty. Ludzie to 35%. Z tych 65% botów, ruch AI-agentów (ChatGPT, Perplexity, Claude, Gemini i podobne) to już 1,5–2% całego ruchu w sieci.
Przelicz to na konkretną stronę: jeśli masz 10 000 sesji miesięcznie w GA4, to twój serwer obsługuje w tym czasie prawdopodobnie ponad 28 000 żądań. I jedna na każde 20 wizyt to działanie asystenta AI w imieniu jakiegoś użytkownika — nie spam, nie scraper, tylko narzędzie, z którego ktoś korzysta żeby podjąć decyzję zakupową.
Dlaczego GA4 tego nie widzi
Google Analytics 4 działa na JavaScripcie. Tag GA4 odpala się w przeglądarce użytkownika i dopiero wtedy wysyła dane do Google. Bot AI nie odpala JavaScriptu. Wchodzi na stronę, pobiera HTML i analizuje treść. W logach serwera — jest. W GA4 — nie ma.
To oznacza kilka rzeczy naraz:
Twój bounce rate jest zawyżony, bo GA4 nie widzi sesji botów, które „odczytują” treść bez interakcji. Czas na stronie jest przekłamany z tego samego powodu. Raporty źródeł ruchu są niekompletne. Modele atrybucji konwersji nie uwzględniają ścieżki „użytkownik zapytał AI → AI odwiedziło stronę → użytkownik kupił”.
O tym jak ta ostatnia ścieżka wpływa na zamówienia i jak ją mierzyć, piszę w tekście o korelacji między wejściami botów AI a zamówieniami.
Boty AI a pozostałe 65% — ważne rozróżnienie
Nie wszystkie boty to boty AI i nie wszystkie boty AI są sobie równe. W tych 65% mieszczą się:
Crawlery wyszukiwarek (Googlebot, Bingbot) — stare, znane, pożyteczne. Spamboty i scrapery — stare, znane, szkodliwe. Boty monitorujące dostępność i wydajność — neutralne. I nowa kategoria: agenci AI, czyli boty działające w imieniu konkretnych użytkowników w czasie rzeczywistym.
Ta ostatnia kategoria to te 1,5–2%. Brzmi mało. Ale to tempo wzrostu robi wrażenie — jeszcze rok temu ten ruch był marginalny. Dziś Marcin mierzy go jako regularny składnik ruchu na stronach klientów Top Online. Za rok — prawdopodobnie będzie go kilka razy więcej.
Dlaczego Google Trends kłamie od 2023 roku i co to ma wspólnego z przesuwaniem się ruchu z Google do AI — to osobny temat, ale bezpośrednio powiązany.
Co z tym zrobić praktycznie
Trzy kroki do pełniejszego obrazu ruchu na stronie:
Zajrzyj do logów serwera. To jedyne miejsce, gdzie widzisz 100% ruchu — ludzi i boty razem. Większość hostingów udostępnia logi w panelu lub przez FTP. Wyszukaj frazy: GPTBot, PerplexityBot, ClaudeBot, OAI-SearchBot, Google-Extended. Już samo to pokaże ci skalę.
Nie używaj GA4 jako jedynego źródła prawdy. GA4 jest świetny do analizy zachowania użytkowników. Jest ślepy na boty. Do pełnej analizy potrzebujesz danych server-side jako uzupełnienia.
Nie blokuj agentów AI. Jeśli masz w robots.txt lub .htaccess wpisy blokujące boty inne niż Googlebot — sprawdź, czy przypadkiem nie blokujesz GPTBota lub PerplexityBota. Blokując ich, blokujesz możliwość cytowania w ChatGPT i Perplexity.
Decyzje contentowe i biznesowe podejmowane na podstawie samego GA4 są jak nawigowanie po mapie, z której wycięto 65% terenu. Możesz dojechać — ale nie wiesz co omijasz.
Szkolenia z AI dla firm
Twój dział marketingu podejmuje decyzje w oparciu o niepełne dane
Na szkoleniu z AI dla firm uczysz się mierzyć to, czego GA4 nie widzi — i wyciągać z tego wnioski dla strategii contentowej.Sprawdź program szkoleń →
