AI w wyszukiwarce Google zjada własny ogon. Nowe badanie ujawnia skalę problemu

5 godziny temu 5

Najnowsza analiza przeprowadzona przez zespół Originality.ai pokazuje, że co dziesiąte źródło cytowane w tych automatycznych podsumowaniach pochodzi z treści wygenerowanych przez inne systemy AI. To niepokojące, szczególnie gdy mówimy o zapytaniach dotyczących zdrowia, finansów czy prawa, gdzie każda informacja powinna być zweryfikowana i rzetelna.

Badacze przeanalizowali blisko 29 tysięcy zapytań z kategorii YMYL (Your Money or Your Life) i odkryli, że 10,4% cytowanych dokumentów stworzyła sztuczna inteligencja. Dla porównania, 74,4% pochodziło od ludzi, a pozostałe 15,2% nie dało się jednoznacznie sklasyfikować. Co gorsza, ponad połowa cytowań pochodziła spoza pierwszej setki tradycyjnych wyników wyszukiwania, a te zewnętrzne źródła zawierały jeszcze wyższy odsetek treści wygenerowanych przez AI – sięgający 12,8%.

Google stanowczo zaprzecza tym ustaleniom, twierdząc, że metodologia badania była wadliwa, a detektory AI nie są wystarczająco skuteczne. Trudno jednak ignorować wyniki badań naukowych, które przeczą tym zarzutom. Narzędzie Originality.ai osiągnęło imponujący wynik 0,975 w rozpoznawaniu tekstów GPT-4 w badaniu University of Florida, a testy Arizona State University wykazały zaledwie 2% fałszywych pozytywów i negatywów.

Google wyjaśnia, że różnice w cytowanych źródłach wynikają ze stosowania techniki “query fan out”, która wykonuje szereg powiązanych wyszukiwań. System Gemini napędzający AI Overviews ma analizować materiały głębiej, sięgając po dokumenty PDF, białe księgi i inne formaty, które często pomija tradycyjne wyszukiwanie. Brzmi sensownie, ale w praktyce oznacza to, że algorytm częściej trafia na treści generowane przez AI, które nie zawsze są wiarygodne.

Długofalowe konsekwencje mogą być jeszcze poważniejsze. Badacze ostrzegają przed zjawiskiem „załamania modelu”, czyli sytuacji, w której sztuczna inteligencja uczy się z wyników wcześniejszych modeli, zamiast czerpać z wiedzy stworzonej przez człowieka. Taka rekurencyjna pętla może prowadzić do utrwalania błędów i stopniowego obniżania jakości informacji dostępnych online.

W 2023 roku Google oficjalnie zadeklarował, że ocenia treści na podstawie ich jakości, a nie pochodzenia. Firma priorytetyzuje materiały wykazujące ekspertyzę, doświadczenie i wiarygodność – niezależnie od tego, czy stworzył je człowiek, czy AI. Teoretycznie słuszne założenie, ale w praktyce rodzi pytania o to, jak skutecznie odróżnić wartościową treść od zwykłego AI-generated contentu.

Kolejnym problemem jest wpływ AI Overviews na ruch internetowy. Badanie Ahrefs wykazało 34,5% spadek współczynnika klikalności dla najwyższej pozycji w wynikach wyszukiwania, gdy nad nią pojawia się automatyczne podsumowanie. Dane z marca 2024 roku pokazują, że średni współczynnik klikalności dla pierwszej pozycji przy zapytaniach z AI Overview wynosił zaledwie 0,026, podczas gdy rok wcześniej było to 0,073. Analiza Pew Research Center potwierdza, że użytkownicy są o prawie połowę mniej skłonni do klikania w tradycyjne wyniki, gdy widzą gotową odpowiedź na górze strony.

Google twierdzi, że zależy mu na utrzymaniu ruchu na stronach internetowych, ale firma nie udostępnia wydawcom narzędzi do rozróżniania kliknięć z AI Overviews od pozostałych danych w Search Console. To utrudnia realną ocenę wpływu nowej funkcji na witryny.

Warto zwrócić uwagę na rozbieżności między różnymi badaniami. Analiza Ahrefs z lipca 2025 roku wskazuje, że 76% cytatów w AI Overviews znajduje się w top 10 wyników, podczas gdy Originality.ai zauważył znacznie większy odsetek źródeł spoza głównego nurtu. Różnica może wynikać z metodologii, ale też z faktu, że Gemini rzeczywiście sięga po materiały niedostępne dla tradycyjnego crawlera. Niestety, te alternatywne źródła częściej okazują się treściami generowanymi przez AI.

Rezultat jest dość paradoksalny – Google, próbując dostarczać bardziej kompleksowe odpowiedzi, nieświadomie promuje mniej wiarygodne informacje. To tworzy błędne koło, w którym sztuczna inteligencja cytuje samą siebie, zamiast opierać się na sprawdzonych, ludzkich źródłach.

Czytaj też:

Odkrycie Originality.ai otwiera ważną dyskusję o przyszłości wyszukiwarek i roli sztucznej inteligencji w dostarczaniu informacji. Mimo sceptycyzmu Google’a, rosnąca liczba dowodów sugeruje, że firma musi lepiej filtrować źródła używane przez jej systemy AI. Bez odpowiednich zabezpieczeń ryzykujemy wejście w zamkniętą pętlę, gdzie AI uczy się od AI, oddalając się od rzetelnej, ludzkiej wiedzy. To nie jest czarny scenariusz, ale realne wyzwanie, które wymaga uwagi i transparentności.

Przeczytaj źródło