W ostatnich miesiącach coraz częściej pojawia się teza, że widoczność w ChatGPT czy innych systemach generatywnych może zastąpić klasyczne SEO. Problem polega na tym, że taka narracja miesza interfejs użytkownika (ChatGPT, z którego korzystasz) z architekturą systemów informacyjnych, na których te interfejsy są zbudowane.
ChatGPT nie jest wyszukiwarką. Nie ocenia stron (np. w oparciu o systemy odzwierciedlające framework EEAT) i nie podejmuje decyzji rankingowych, nie posiada indeksu i klasycznie rozumianego grafu wiedzy (takiego jak np. w Google czy Bing). Co więcej, nie gromadzi danych dotyczących zachowań użytkowników w wynikach wyszukiwania i na stronach docelowych (jak w Google NavBoost, Glue, CRAPS). Ergo, system OpenAI nie zbiera i nie gromadzi informacji zwrotnej, czy zaproponowany wynik był satysfakcjonujący.
ChatGPT działa na warstwie wtórnej wobec systemów wyszukiwania. Z tego powodu marketing „pod AI”, który ignoruje SEO, opiera się na błędnym założeniu co do źródła wiedzy modeli językowych.
Content
- 1 Modele językowe nie „szukają”, tylko generują odpowiedzi
- 2 RAG jako warstwa pośrednia, nie źródło wiedzy
- 3 Jak poprawnie realizowane SEO wpływa na odpowiedzi AI
- 4 Klasyfikacja semantyczna jako warunek widoczności w AI
- 5 Grafy wiedzy jako element infrastruktury wyszukiwarek, nie AI
- 6 Halucynacje jako efekt braku stabilnych sygnałów
- 7 AI Visibility jako pochodna, nie alternatywa SEO
- 8 Wniosek: ChatGPT jest warstwą interpretacji, nie źródłem ruchu
Modele językowe nie „szukają”, tylko generują odpowiedzi
Duże modele językowe składają odpowiedzi na podstawie:
- wzorców językowych wyuczonych w procesie treningu (prawdopodobieństwo występowania po sobie określonych słów, a właściwie tokenów),
- relacji semantycznych zakodowanych w wagach modelu,
- oraz, coraz częściej, zewnętrznych systemów retrieval (lub pół-zewnętrznych, jak w przypadku „wiedzy” wgrywanej do customGPT lub integrowanej w biznesowych wersjach aplikacji.

Narzędzia takie jak ChatGPT, czy Claude same w sobie nie mają w wariancie domyślnym dostępu do internetu ani indeksu stron. Odpowiedź serwowana przez ChatGPT nie powstaje poprzez wyszukanie dokumentu, lecz poprzez probabilistyczną rekonstrukcję najbardziej spójnej odpowiedzi w danym kontekście.
Dopiero połączenie modelu językowego z warstwą retrieval (np. RAG) powoduje, że odpowiedzi mogą być ugruntowane w aktualnych, zewnętrznych danych.
RAG jako warstwa pośrednia, nie źródło wiedzy
Retrieval-Augmented Generation polega na tym, że:
- system retrieval pobiera dokumenty z zewnętrznego źródła,
- dokumenty te są filtrowane, porządkowane i skracane,
- model językowy generuje odpowiedź na ich podstawie.
Kluczowe jest to, że RAG nie generuje wiedzy i nie ocenia jej jakości. Jakość odpowiedzi zależy od jakości:
- indeksu, z którego pobierane są dokumenty,
- klasyfikacji semantycznej tych dokumentów,
- oraz sygnałów, które wcześniej wpłynęły na ich widoczność.
W praktyce źródłem retrieval są:
- wyszukiwarki (np. Bing lub Google),
- wtórne indeksy oparte na crawlach wyszukiwarek (z czym Google walczy – np. wprowadzając ograniczenie pobierania wyników z &num=100),
- zamknięte bazy wiedzy budowane według podobnych zasad.
Jak poprawnie realizowane SEO wpływa na odpowiedzi AI
Poprawnie prowadzone SEO:
- wpływa na to, jakie dane są dostarczane algorytmom,
- redukuje ryzyko błędnej interpretacji treści,
- zwiększa prawdopodobieństwo poprawnej klasyfikacji semantycznej,
- oraz warunkuje możliwość pojawienia się treści w indeksie w kontekście określonych zapytań.
To z kolei wpływa na to, czy dana treść może zostać pobrana przez systemy retrieval wykorzystywane przez AI.
Klasyfikacja semantyczna jako warunek widoczności w AI
Systemy generatywne nie „czytają stron”. Operują na fragmentach treści, które:
- zostały wcześniej rozpoznane jako pasujące (relevance),
- przypisane do określonych intencji użytkownika,
- osadzone w kontekście tematycznym.
Przeczytaj także: Jak Google wykorzystuje encje (entities) do zrozumienia treści – zastosowanie w SEO
Jeżeli treść:
- nie odpowiada na konkretne pytania użytkowników,
- nie jest jednoznaczna semantycznie,
- nie posiada czytelnej struktury informacji,
to algorytmy wyszukiwarek mają problem z jej poprawną klasyfikacją. Co więcej, jeśli wartość, użyteczność i dopasowanie dokumentu (np. artykułu) nie znajdują w dłuższej perspektywie potwierdzenia w postaci danych behawioralnych (zachowań użytkowników), to nie utrzyma się on w wynikach wyszukiwania (a co za tym idzie, nie będzie brany pod uwagę w information retrieval systemów AI).
W konsekwencji systemy AI nie mają stabilnego punktu odniesienia, z którego mogłyby korzystać.
Grafy wiedzy jako element infrastruktury wyszukiwarek, nie AI
Modele językowe nie korzystają bezpośrednio z grafów wiedzy w rozumieniu Google Knowledge Graph. Nie odpytują ich i nie interpretują relacji encji w sposób jawny.
Grafy wiedzy:
- są elementem infrastruktury wyszukiwarek,
- wspierają klasyfikację encji, zapytań i dokumentów,
- wpływają na to, jakie zasoby są uznawane za relewantne i wiarygodne.
Jeżeli system AI korzysta z wyników wyszukiwarki, to pośrednio konsumuje efekty działania grafów wiedzy, ale nie grafy same w sobie. To istotne rozróżnienie, bo pokazuje, że SEO nie „optymalizuje pod AI”, tylko pod systemy, z których AI później korzysta.
Halucynacje jako efekt braku stabilnych sygnałów
Halucynacje nie wynikają wyłącznie z braku danych. Często są skutkiem:
- niespójnych źródeł,
- konfliktu narracji,
- braku dominujących, autorytatywnych treści,
- lub też mylnej klasyfikacji zapytania przez ChatGPT (co skutkuje brakiem groundingu i odpowiedzią „z modelu”).
SEO, poprzez:
- porządkowanie architektury informacji,
- budowanie autorytetu domeny,
- konsekwentne adresowanie intencji użytkownika,
zmniejsza rozjazd semantyczny w ekosystemie treści. To z kolei redukuje ryzyko generowania odpowiedzi opartych na uśrednionych, nieprecyzyjnych wzorcach językowych.
Jeszcze raz: model językowy sam z siebie serwuje słowa, które do siebie pasują, a nie fakty.
AI Visibility jako pochodna, nie alternatywa SEO
Pojęcia takie jak AEO, GEO, LLMO czy AI Visibility nie opisują nowej dyscypliny, lecz nowy sposób konsumpcji tego samego zasobu informacyjnego.
Aby treść mogła być:
- rozpoznana,
- cytowana,
- rekomendowana,
musi wcześniej:
- zostać zaindeksowana,
- poprawnie sklasyfikowana,
- oceniona jako użyteczna i wiarygodna.
Te procesy nadal zachodzą w systemach wyszukiwania. AI nie omija tego etapu.
Wniosek: ChatGPT jest warstwą interpretacji, nie źródłem ruchu
ChatGPT i inne systemy generatywne zmieniają sposób interakcji użytkownika z informacją, ale nie zmieniają fundamentów jej selekcji. Fundamentami pozostają:
- indeks,
- klasyfikacja semantyczna,
- autorytet,
- dopasowanie do intencji użytkownika.
Marketing w ChatGPT bez SEO nie jest nową strategią. Jest próbą wykorzystania warstwy interpretacyjnej bez zadbania o warstwę źródłową.
Jeżeli celem jest realna widoczność w ekosystemie AI, punktem wyjścia nadal pozostaje świadome, technicznie poprawne i semantycznie spójne SEO.
PS. Praktyczna wskazówka – możesz podejrzeć, jakie zapytania „wpisuje” ChatGPT w procesie query augmentation / fan-out poprzez sprawdzenie danych w konsoli w Chrome lub poprzez wtyczkę: https://www.practicalecommerce.com/how-to-extract-chatgpts-fan-out-queries