Co to jest AI mode? Jak zmieni się SEO? I jak się zbroiłem pod tym kątem…

AI, NLP i LLMs in SEO, Biznes online

AI mode (po polsku tryb AI), to nowy sposób pracy wyszukiwarki Google, który zmienia całkowicie doświadczenie uzyskiwania informacji z sieci. Opiera się na konwersacji podobnej do tej, jaką znamy z ChatGPT. Nie należy go mylić z Przeglądem od AI (ang. AI Overviews). To też pewnego rodzaju nowość, można powiedzieć – rewolucyjna. To jednak tylko delikatna zapowiedź tego, co nas czeka już niebawem w świecie SEM.

Jak działa AI mode i jakie to niesie implikacje dla SEO

AI mode po potrzymaniu zapytania serwuje odpowiedzi bazujące na kompilacji danych z różnych źródeł. W procesie uczestniczy zarówno model językowy wytrenowany pod kątem rozmowy, jak i klasyczne wyszukiwanie informacji w indeksie.

Na początku AI mode dokonuje osadzenia zapytania w szerszym kontekście poprzez stworzenie dodatkowych wariantów zapytania. Dzięki temu powstają nowe zapytania wpisanego przez użytkownika, które poszerzają wyszukiwanie informacji o nowe konteksty, zmniejszą halucynacje modelu językowego (grounding), lepiej zaspokoją domniemaną intencję użytkownika (a także intencję następującą po niej).

Proces dodawania kolejnych zapytań poszerzających kontekst nazywany jest query augmentation.

Query augmentation w praktyce

Przykładowo dla zapytania „agencja SEO” trudno powiedzieć, co będzie właściwą odpowiedzią, prawda? Model mógłby odpowiedzieć: „agencja SEO to agencja, która świadczy usługi SEO”, ale nie byłoby to zbyt satysfakcjonujące. Dlatego doda zapytania typu:

  • co to jest agencja SEO?
  • jak wybrać agencję SEO?
  • ile kosztuje współpraca z agencją SEO?
  • jakie są najlepsze agencje SEO?

Chcąc się optymalizować pod kątem AI w Google warto pokrywać dla głównego entity cały ten ciąg intencji.

W podanym przykładzie prędzej czy później użytkownik zostanie doprowadzony do jakichś wniosków – np., że jeśli prowadzi sklep internetowy to powinien rozważyć takaoto.pro 🙂 Następnie przejdzie po linku do strony. Albo wpisze adres w pasku adresu w przeglądarce. Lub wpisze brand w wyszukiwarce i znowu dostanie link. Niby success story, ale AI mode niesie za sobą poważne implikacje dla wielu modeli biznesowych. Nie ma co ukrywać – dla wielu firm zastąpienie twardego, policzalnego ruchu, samą propozycją marki, będzie ciężkie do zaakceptowania.

AI mode a pozycjonowanie

Jestem zaskoczony tym, co się dzieje w kontekście AI mode w naszej branży. Dziwi mnie spokój niektórych specjalistów, którzy twierdzą, że nic się nie zmienia. Nie uważam też, że panikowanie jest wskazane (bo nigdy nie jest).

Niektórzy zadają sobie pytanie, czy jako specjaliści będziemy dalej potrzebni? Co do tego nie mam wątpliwości – będziemy. Jednak czy przetrwają modele biznesowe, na których opieraliśmy swoją pozycję na rynku? Tu już pewności nie mam. Najbardziej zagrożeni są wydawcy. Później firmy, które żyją z doradzania na poziomie swojego contentu i odsyłania do dostawców produktów i usług (czyli branża afiliacyjna). Jeśli content marketing targetujący frazy informacyjne służył ci jako sposób na pozyskanie leadów lub forma budowania grup do marketingu – również masz problem. Dotyczyć to będzie wielu biznesów e-commerce.

Pozycjonowanie per se kojarzone jest ze zdobywaniem konkretnych pozycji – liczonych od top1 w dół. Teraz już nie będzie pozycji. Znikną wyniki w formie listy 10 niebieskich linków (upraszczając). Google w trybie AI będzie serwować mocno personalizowane odpowiedzi dobierając różne zestawy źródeł. Klikalność tych źródeł będzie mizerna. Widzimy to już po AI Overviews. Czas SEO rozumianego przede wszystkim jako narzędzie pozyskiwania szeroko targetowanego ruchu na stronach www będzie powoli przemijał.

Agencja SEO nie będzie mogła powiedzieć – celujemy w top1 na zapytanie x i będzie to kosztować tyle i tyle PLN.

Czy zatem należy porzucić SEO? To zależy od tego, czy chcesz się odciąć od swojej grupy docelowej.

AI mode zapowiada się jako niezwykle wygodne rozwiązanie dla użytkowników. Istnieją pewne problemy związane z halucynacjami, ale są one bardzo szybko redukowane. Implementacja nowych modeli takich jak Gemini 2.5 połączonych z różnymi formami groundingu (jak np. query augmentation) przekłada się na coraz mniejsze ryzyko halucynacji. Przewiduję, że intensywność wykorzystania Google dzięki temu może wzrosnąć.

To by było chyba na tyle, jeśli chodzi o prognozy, że ChatGPT zastąpi Google. Wyszukiwarka Google stanie się takim właśnie czatem, tylko z dużo potężniejszą infrastrukturą do gromadzenia i przetwarzania wiedzy, wielokrotnie większą bazą użytkowników, a także wsparciem technologicznym ze strony Android, Chrome i Google Workspace (dających możliwość większej penetracji rynku i budowania lojalności).

Jeśli zadajesz sobie pytanie, czy opłaca się być w AI mode i walczyć o ruch z Google, przy wszystkich nadchodzących trudnościach, to pamiętaj, że ktoś tam będzie obecny. Popyt na usługi i produkty nie zmaleje. Pytanie, czy chcesz oddać tę przestrzeń konkurencji?

Przyjrzyjmy się, jak wprowadzenie AI mode wpłynie na SEO i czy twierdzenie, że nic się nie zmienia można uznać za prawdziwe.

Czy w SEO rzeczywiście nic się nie zmienia?

Można powiedzieć, że nowy tryb AI, to zmiana ewolucyjna i spokojnie można się do niej zaadoptować.

Jednak pewnych rzeczy ignorować nie wolno. Same AI Overviews ograniczyły o około 31% CTR z zapytań informacyjnych. Przy wielu zapytaniach nie ma w ogóle sensu wchodzić na strony internetowe. Wszystko wskazuje, że wraz z adaptacją AI mode ten trend będzie jeszcze bardziej postępować.

Od strony technologicznej faktycznie będzie to raczej ewolucja. Dalej trzeba będzie dbać o:

  1. Treści, aby móc być cytowanym lub wskazywanym przez Google,
  2. Optymalizację techniczną, aby boty mogły odczytać zawartość strony,
  3. Autorytet, a zatem zdobywać linki z mocnych serwisów.

Jednak przy każdym z tych punktów trzeba postawić gwiazdkę i wejść w detale, aby zrozumieć, z czym się mierzymy w dłuższej perspektywie. Do tego pozostaje kwestia użyteczności contentu, ale o tym też za chwilę. Zmiana na pewno nie nastąpi z dnia na dzień, bo Google musi dać czas swoim użytkownikom na adaptację, ale… Dobra, wejdźmy w detale.

Content pod NLP i LLM w dobie AI mode

Tworzenie treści jeszcze bardziej niż kiedykolwiek będzie musiało opierać się na zaawansowanej matematyce, znajomości NLP (ang. natural language processing – przetwarzanie języka naturalnego na język maszyn), wiedzy z zakresu działania LLM-ów (ang. large language models – duże modele językowe). I nie chodzi tu nawet o same prompty, a o znaczenie i umiejętność gry temperaturą, wykorzystanie osadzeń (ang. embeddings), analizowanie SiteRadius treści i planowanie pod kątem SiteFocusScore w różnych wariantach wyznaczania centroidu… Do tego świadome kształtowanie wartości perplexity, burstiness, umiejętność wykorzystania RAG dla modeli, grounding, czy nawet ich lokalne trenowanie.

To co przez ostatnie lata stanowiło zaawansowaną wiedzę dostępną dla stosunkowo niewielu i co dawało przewagę w walce o topowe pozycje, teraz prawdopodobnie stanie się warunkiem niezbędnym, aby w ogóle pozostać w grze. Brzmi niepokojąco? Dopiero zaczynamy.

Redukcja znaczenia słów kluczowych

Niektórzy już teraz nie patrzą na wolumen wyszukiwania (search volume) przy planowaniu fraz. Patrzymy przede wszystkim na zbieżność z intencją użytkownika. I dobrze, bo po to content ma powstawać, aby zaspokoić potrzeby użytkownika w kontekście oferty firmy. Jednocześnie nie ma co ukrywać, że opłaca się analizować popularność fraz, aby w ogóle wiedzieć, z jaką skalą popytu w danej niszy się mierzymy i jak adresować „sąsiednie” intencje i powiązane problemy.

Bez żadnej dyskusji, jedną z miar sukcesu jest pozycja na „główne” słowo kluczowe. Z tego się niejako rozliczamy, nawet jak nie jest formalnym KPI kampanii.

To teraz wyobraź sobie, że popularność słów kluczowych przestaje być znana. I nie wiadomo na co jaki jest popyt. To całkiem realny scenariusz. Ba, już teraz Google Search Console nie raportuje zapytań konwersacyjnych. Już w obecnej wersji wyszukiwarki ludzie wpisują różne zapytania, dostają odpowiedzi, a my nie mamy o tym pojęcia, bo nie ma śladu w konsoli.

Polecam artykuł Tomka Rudzkiego z ZipTie na ten temat: https://ziptie.dev/blog/gscs-huge-search-gap/

Oto główne wnioski:

źródło: Ziptie.dev

Już teraz w patentach Google coraz częściej pojawia się query, czyli zapytanie (niejako odnoszące się do słów kluczowych), a coraz bardziej podkreślana jest konwersacyjność. Zamiast zadawać pytanie w Google i przeglądać zaserwowane strony, będziemy w sposób ciągły rozmawiać z Google. Każdy spyta na swój sposób, a wyszukiwarka będzie coraz lepiej to rozumieć.

Czujesz różnicę między rozmową z ChatGPT a wyszukiwaniem w Google? To teraz w Google będziesz mieć podobnie.

Nowe grupowanie fraz i planowanie architektury informacji

Także teksty będziemy tworzyć w oparciu o frazy, dla których nie znamy wolumenu wyszukiwania (i którego nie zweryfikujemy). Następnie będzie trzeba umieć te frazy klastrować. Jak to robić pod AI mode? Nikt nie wie. Możliwe, że adresując każdą intencję osobno… ale równie prawdopodobne, że wiążąc intencje ze sobą i pokrywając (przewidując) całe customer journey w jednym dokumencie. Pozostaje obserwować to, co aktualnie się dzieje na rynku USA, gdzie AI mode jest wdrażane w pierwszej kolejności.

Planując content (już teraz) konieczna jest umiejętność wyciągania z sieci faktów, istotnych dla danego tematu, które następnie w unikalny sposób trzeba będzie omówić w artykule (lub innym formacie). W dobie zaawansowanych modeli językowych nie wystarczy użyć fraz. Trzeba osadzić je w kontekstach i dawać odpowiedzi na pytania, które interesują użytkownika. Najpierw jednak trzeba upewnić się, że maszyna serwująca nasz content (lub korzystająca z niego), rozumie nasz sposób podania tychże faktów. Struktura contentu na poziomie semantyki i mikrosemantyki to klucz do sukcesu. Mówię tu o sukcesie rozumianym jako „bycie przeczytanym przez system” i być może zacytowanym, a nie o sukcesie w postaci pozyskania ruchu, nie mówiąc już o konwersji i oczekiwanym ROI.

Nie od dziś wiemy, że treść musi się także cechować odpowiednim EffortScore (vide zeszłoroczny Google Leak). Nie wystarczy znajomość faktów na podstawie konkurencji. Koniecznie trzeba sięgać do architektury wiedzy jaką dysponuje Google, czyli do Knowledge Graph. W tym celu należy świadomie operować encjami. Za pomocą grafu wiedzy, trójek semantycznych (semantic triples), Google i inne maszyny oceniają zbieżność treści, abstrakcyjnych konceptów, z faktami. Umiesz ustrukturyzować content tak, aby był uznany za poprawny?

Dlatego też do tworzenia odpowiedniego dla maszyn contentu koniecznie jest planowanie treści w sposób ustrukturyzowany. I mam tu na myśli nie tylko structured data w formie znaczników schema, ale przede wszystkim strukturę tytułów, wstępów, śródtytułów bazującą na semantyce, a nawet sposób budowania zdań. I pamiętaj, że ta semantyka powinna być planowana nie tylko w obrębie artykułu, ale także w obrębie całego serwisu. Bez odpowiednich narzędzi (zapewne autorskich), będzie ciężko zarządzać taką strukturą w średnich i większych serwisach. No i wspomniane wyżej trójki semantyczne… ale to nie koniec.

Wartość dodana przedstawiona matematycznie jako warunek obecności w indeksie

Musisz umieć zadbać o jak najwyższy Information Gain score, czyli o to, aby twój content wnosił coś nowego do sieci. Treść odtwórcza i powielająca obecne już w sieci informacje jest… niepotrzebna. Po co Google ma indeksować twoje strony? Nie ma takiego obowiązku, a w dobie AI mode zapotrzebowanie na większą liczbę podobnych zasobów leci na łeb na szyję.

Obecnie bardzo często jako agencje SEO, jesteśmy zmuszani do robienia marketingu dla marek, które nie mają nic do powiedzenia, nic do zaoferowania. Po prostu są i dają usługę lub produkt, ale nie prowadzą wokół nich badań, nie mają pomysłów na opowiedzenie o sobie. Stąd tak dużo treści pod SEO można ocenić jako bezduszne, wtórne, generyczne. To musi się zmienić. Odrób lekcje z marketingu, jeśli chcesz być widoczny w sieci!

Planowanie treści a mapy customer journey i persony

Inżynieria zwrotna na podstawie top10 w Google już nie wystarczy. Musisz planować content tak, aby zaspokoić intencję, dać wartość dodaną, unikalny głos marki, zadbać o konwersyjność (bo każda wizyta będzie na wagę złota), a także żeby w unikalny sposób rozwiązywać problem odbiorcy. Musisz umieć przewidzieć kolejne oczekiwane kroki użytkownika i pomóc mu w nawigacji – albo poprzez odpowiednią narrację w treści, albo przez kontekstowe linkowanie wewnętrzne. Czy masz mapę customer journey swoich klientów? Najlepiej przygotowaną na podstawie badań, a nie domysłów, i to dla każdej z person z osobna?

Treści twojej strony muszą oddawać twoją ekspertyzę i muszą opierać się na szczegółowej znajomości person. Nie ma dopasowania i wartości dodanej? Nie ma unikalnej propozycji wartości? Nie ma informacji, danych, procesów, porad, które są nowością w sieci? Nie ma zapotrzebowania na twój content. Kropka.

Multimodalność na poziomie formatu treści i języka

Przez długi czas można było budować przewagę poprzez ekspercką znajomość tematu na własnym rynku. Można było być kolporterem wiedzy z danej dziedziny – np. dla rynku polskiego. Jeśli to była Twoja główna przewaga, to możesz ją zaraz stracić.

Teraz reguły gry się zmienią. Maszyneria Google, wykorzystując modele językowe i techniki NLP, może już bardzo sprawnie przetwarzać tekst (reprezentujący różne, nawet abstrakcyjne koncepty) na język matematyki. W efekcie może przełożyć z języka angielskiego na język matematyczny, a z tegoż… na polski.

Już teraz obserwujemy coraz częściej, że odpowiedzi w AI Overviews, bazują na wynikach zagranicznych. Jeśli strony z innych krajów (np. z amerykańskich portali) mają większy autorytet, popularniejszą markę, stają się dla Google po prostu wiarygodnym źródłem. AI mode minimalizując ryzyko podania nieprawdziwej lub nierzetelnej informacji, będzie korzystać z tych źródeł, które uzna za najbardziej wiarygodne i to nie niezależnie od języka, w którym są tworzone. Jesteśmy na to gotowi?

Pokazywałem to już na konferencji I love SEO w tym roku. Za przykład posłużyło zapytanie o to ile powinien kosztować audyt SEO. AI Overviews wykorzystało automatycznie tłumaczony zagraniczny blog. To dopiero początek tego typu „niespodzianek”. W walce o uwagę algorytmów i użytkowników robi się coraz ciaśniej.

Dzisiaj zapytałem Google o „MUM” i jednym z wyników w AI Overviews był wynik z LinkedIn, oryginalnie po angielsku, ale wykorzystany dla wyników polskich:

Wynik zagraniczny przetłumaczony na potrzeby polskiego Przeglądu od AI; źródło: Google

Już teraz widzimy, że multimodalność treści, urozmaicanie artykułów grafikami (infografikami, wykresami, schematami, grafami), a także dodawanie materiałów wideo i audio, pomagają w byciu obecnym w AI Overviews. Podobnie to wygląda przy rozmowie z ChatGPT czy Perplexity. Dla AI mode preferowanie treści multimodalnych jest naturalnym kierunkiem.

W kontekście malejącego znaczenia słów kluczowych i multimodalności warto jeszcze wspomnieć o zupełnie nowych modelach wyszukiwania. AI mode to nie tylko nacisk na zapytania konwersacyjne, dla których nie będziemy mieć raportów. To także większe ułatwienie dla wyszukiwania głosowego i de facto rozmowy z chatbotem Google. Tryb AI zachęci użytkowników także do komunikacji wizualnej poprzez pokazanie obrazu w trybie Search Live i zapytanie o dany obiekt, zjawisko… cokolwiek.

Modele AI to także odczytywanie obrazu. Zrób zdjęcie butom i zapytaj ChatGPT czy będą odpowiednie do wspinaczki na Kilimandżaro. Google może robić już to samo w oparciu o dawno przedstawiony MUM. Zresztą bardzo podobny przykład podali w swojej prezentacji – tam chodziło o ocenę butów pod kątem wchodzenia na górę Fuji

Najpierw pokazali sposoby zadawania pytań i ekstrakcji informacji:

https://blog.google/products/search/introducing-mum/

A następnie pokazali użycie grafiki w wyszukiwarce połączone z zapytaniem głosowym:

https://blog.google/products/search/introducing-mum/

Wtedy (2021) jeszcze nie za bardzo mieli przestrzeń i narzędzia, aby to wdrożyć w pełni… Cóż. Przyszłość nadeszła.

Optymalizacja techniczna pod AI mode i inne LLM

Oczywiste jest, że żeby być widocznym w AI mode, czyli konwersacyjnym trybie komunikacji z Google, trzeba będzie, jak i dotychczas, być technicznie dostępnym dla Google.

Jednak AI mode ma być nie tylko mechanizmem serwowania odpowiedzi, ale także mechanizmem zaspokajania intencji zakupowej. Google stanie się rozbudowanym agentem AI.

źródło: Google

Wyobraź sobie, że chcesz zacząć biegać. Po rozmowie z trybem AI możesz uzyskać wiedzę i informacje niezbędne, aby dokonać zakupu. Następnie będziesz zlecać Google sięgnięcie do wybranego sklepu (po uprzednim zweryfikowaniu przez system, który ma najlepsze oceny, dostępność towaru, atrakcyjną cenę i warunki dostawy) i dokonanie zakupu.

Jeden scenariusz jest taki, że agent trybu AI za pomocą profilu Google dokona logowania (lub rejestracji) w danym sklepie. Masz już przecież teraz zapamiętane w Chrome dane do wypełniania formularzy, więc możesz poinstruować agenta, który z adresów ma posłużyć do zamówienia. Pozostaje jedynie autoryzacja transakcji poprzez zapisaną kartę kredytową (Google Pay na telefonie) i temat zamknięty.

Bardzo możliwe, że komunikacja ze sklepem będzie odbywać się nie tyle przez UI przeznaczony dla użytkownika, a przez feedy produktowe i narzędzia znane z Google Merchant Center. Możliwości jest sporo, bo Google naprawdę ma ciasno dopięty ekosystem.

Być może będziemy udostępniać feedy, optymalizować jeszcze bardziej structured data, a może wszystko będzie się odbywać przez API. To scenariusze przyszłości, ale raczej tej przewidywalnej i niezbyt odległej.

Roboty muszą umieć odczytać twoją stronę i muszą robić to tanio, szybko i skutecznie.

W tym celu w cenie pozostaje wiedza na tematy serwerowe, optymalizacja DOM i przemyślane serwowanie zasobów, umiejętność świadomego decydowania o zastosowaniu JavaScript, a także gdzie ten kod renderować (po stronie usera czy serwera). Trzeba umieć zarządzać obciążeniem strony i dbać o dostępność lub też niedostępność poszczególnych zasobów… Jednak jak bardzo zmieni się warstwa i struktura danych, których Google będzie potrzebować do konwersji? Tego nie wiemy. Ale się dowiemy 😉

Link building i budowanie autorytetu w dobie AI mode

Badania pokazują, że jednym z fundamentalnych czynników wpływających na to, czy nasza treść zostanie zaserwowana w czatach GPT, Perplexity czy AI Overviews, jest wysoka pozycja w Google i/lub Bing. Narzędzia te szukają wiedzy w procesie groundingu, aby serwować faktycznie prawdziwe informacje, a nie halucynować na podstawie nieaktualnych lub nieprecyzyjnych danych treningowych.

Więcej o tym przeczytacie na blogu ZipTie:

Obecność w top10 w Google na powiązane zapytania w następujący sposób przekłada się na obecność w wyszukiwarkach czy też czatbotach AI:

źródło, j.w. ziptie.dev

Podobne wnioski prezentował Tomek Niezgoda z SurferSEO w jednym ze swoich postów na LinkedIn:

To oznacza, że link building w tej czy innej formie dalej będzie w cenie. SEO w nowym wydaniu dalej będzie potrzebowało:

  • mierzenia autorytetu (a w tym linki są niezastąpione),
  • wsparcia w procesie crawlowania (znowu – obecność w prominentnych mediach będzie dalej pomocna).

Ponadto dzięki artykułom sponsorowanym, wpisom gościnnym, publikacjom na forach i w innych crawlowanych zasobach (generalnie chodzi o całe to offsite SEO), mamy możliwość uczyć LLMy. Wykorzystując parasite SEO możemy umieścić naszą markę w kontekście popularnych słów kluczowych, a nasza publikacja sponsorowana w serwisie z wysokim autorytetem z większym prawdopodobieństwo posłuży za źródło dla AI mode.

Ponadto Googlebot crawlując różne zasoby (być może nawet PBN-y) będzie regularnie trafiać na kontrolowane przez nas informacje. Można w ten sposób zestawić naszą markę, stronę, z konkretnymi konceptami. Dzięki takiemu działaniu i obecności w rankingach, łatwiej będzie karmić LLM pożądaną narracją i pojawiać się w AI Overviews i docelowo w AI mode w odpowiedzi na zapytania o charakterze komercyjnym, transakcyjnym i nawigacyjnym.

Także offsite SEO nie umrze. Pozostaje pytanie o kontrolę nad jego rentownością. A do tego będzie potrzebna analityka i mierzenie impaktu.

Jak pozyskiwać i mierzyć ruch z trybu AI?

Żeby zwiększyć szanse na bycie obecnym w AI Overviews i docelowo także w AI mode, należy podjąć wszystkie wyżej opisane działania. Precyzyjnie planować treści, aby były łatwe i tanie do przetworzenia przez maszynę, dbać o semantykę, strukturyzację, perfekcyjnie optymalizować strony pod względem technicznym, a także budować ich autorytet.

Jednak i to nie daje pewności, ile ruchu koniec końców wpadnie na stronę. Estymacje, których mogliśmy dokonywać bazując na szacunkowej liczbie wyszukiwań słowa kluczowego i oczekiwanym CTR na danej pozycji, choć niedokładne, dawały jakiś punkt odniesienia. Dawały jakieś wyobrażenie o skali. Teraz nie mam pojęcia, jak to będzie wyglądało.

Co więcej analityka staje się coraz trudniejsza ze względu na wycięcie słów kluczowych. Jeśli nie wiesz jak zabrać się za analizowanie ruchu z LLM-ów, to polecam ten raport Google Looker Studio od Steve’a Totha:

Co z monitoringiem ruchu z Google w trybie AI? Czas pokaże. Jednak nastawiłbym się na zmianę w tym zakresie. Należy przestawić się z kliknięć w przeglądarce na kliknięcia w głowie. Głównym i bardziej racjonalnym celem powinno być chyba strategia zorientowana na budowanie marki top of mind w konkretnej grupie docelowej.

Zamiast rankować na słowo kluczowe, bądź proponowaną marką dla konkretnej grupy docelowej (core target), dla której jesteś w stanie dostarczyć unikalną propozycję wartości. Wtedy ruch może przyjąć formę ruchu bezpośredniego lub zapytań brandowych.

Ale to też nie jest takie oczywiste, bo już pojawiają się sygnały, że będzie odsyłał do wizytówki Google My Business. Także droga od optymalizacji, przez obecność w mechanizmach odpowiedzi, do wejścia na stronę staje się wydłużona.

Powstają już narzędzia analityczne, które są zorientowane stricte na AI Overviews. Czy będą dawać radę również w AI mode? Trudno powiedzieć. Na ten moment testuję: Waikay, Chatbeat, Ziptie.dev oraz AI Tracker (jako moduł SurferSEO) czy Brand radar w obrębie Ahrefs.

Pewnie jeszcze chwilę mi zajmie zanim ułożę z tego spójny system analityczny i raportujący, ale wydaje mi się, że jestem na właściwym tropie.

Tryb AI a ROI, ROAS, KPI

Analityka na pewno nie będzie łatwa i przejrzysta. Czy będziemy umieć powiązać obecność w AI mode z konkretnymi działaniami contentowymi, link buildingiem, optymalizacją? Czy będziemy umieć mierzyć ROAS z kampanii SEO?

Już od dawna było to niezwykle trudne. Zwłaszcza jak ktoś przyjmuje sobie jako KPI ruch niebrandowy z wyszukiwarki. Jak go teraz będziemy mierzyć? Nie sposób przewidzieć. Ja się nastawiam po prostu na to, że SEO stanie się działaniem o pewnych cechach ATL (Above The Line – czyli szeroka komunikacja jak ta realizowana przez radio, TV, billboardy, gdzie nie mierzy się konkretnych zachowań użytkownika w kontekście konkretnego punktu styku), ale przy jednoczesnej personalizacji dokonywanej przez AI Google’a.

Jak Google będzie monetyzować AI mode?

Przetwarzanie zapytań poprzez duży model językowy i wielokrotne odpytywanie indeksu jest znacznie droższe niż klasyczny model serwowania SERP (ang. search engine result page). Dlatego też Google będzie musiało jak najszybciej rozpocząć budowanie rentowności na tej usłudze. Nie zapominajmy, że Google jest przede wszystkim firmą żyjącą z reklam, także należy oczekiwać właśnie tej formy monetyzacji.

To otwiera nowe możliwości. Bo tam gdzie Google Ads, tam zawsze więcej danych analitycznych ze strony Google. Chociaż też należy tu studzić entuzjazm, bo z roku na rok Google zawęża specjalistom PPC wachlarz narzędzi, zastępując ich działania optymalizacyjne własnymi mechanizmami (oczywiście opartymi, upraszczając, na sztucznej inteligencji). Niemniej należy przyjąć, że jakieś dane będziemy dostawać, no i na pewno będzie można domykać sprzedaż z trybu AI.

Nowe modele agencji pod AI mode

Należy przestać patrzeć na SEO i Google Ads jako dwa różne kanały sprzedaży. Już wcześniej byłem zwolennikiem łączenia danych i procesów związanych z organikiem i ruchem płatnym, aby budować spójne ścieżki pokrywające customer journey. Nie brakowało agencji SEO/SEM, które oferowały jedno i drugie rozwiązanie, ale rzadko spotykałem się ze zintegrowanymi kampaniami, które naprawdę były planowane jako całość.

Myślę, że wchodzimy w erę agencji Search/AI. Podział na PPC i organik będzie takim podziałem, jak obecnie w agencjach specjaliści dzielą się na tych od on-page i off-page lub od SEO technicznego i od contentu. Agencje Search/AI stanowią naturalną formę ewolucji z obecnych modeli biznesowych.

My też prowadząc agencję SEO takaoto.pro, doszliśmy do etapu, w którym do jej kompetencji doszedł szerzej rozumiany content marketing, audyty UX, usługi PPC, automatyzacje i praca w oparciu o narzędzia AI. Jesteśmy przygotowywani do budowania ekspozycji marek (i pewnie też trochę pozyskiwania ruchu i sprzedaży) w AI Overviews, AI mode, a także ChatGPT, Claude, Perplexity, czy Copilot.

Dołożymy do tego e-mail marketing, aby budować lojalną bazę odbiorców, własną społeczność niezależną od big techów oraz zorientowaną na LTV i mamy komplet.

Największym wyzwaniem będzie zmiana form rozliczeń, KPI, transformacja w relacjach z klientami. Nie obiecamy ci konkretnych liczb. Będziemy się tego uczyć razem. Pytanie, czy chcesz ruszyć z nami w tę przygodę czy wolisz poczekać oddając pole konkurencji?

Jak się przygotowywałem do AI mode

To, że Google zmieni swoją formułę serwowania odpowiedzi i przejdzie do trybu konwersacyjnego było do przewidzenia od dawna. Skrócenie procesu, zaspokojenie intencji, integracja usług w obrębie swojej platformy i kontrola nad użytkownikiem – to wszystko postępowało z roku na rok. Dlatego też pojąłem już wcześniej pewne działania przygotowawcze.

Pierwszy typ działań, to działania oparte na wiedzy i zrozumieniu tego, co się dzieje w wyszukiwarce:

  1. Zbroiłem się w wiedzę z zakresu AI i NLP (chociażby dołączając do społeczności SENSAI Academy).
  2. Uczyłem się konceptów związanych z semantyką w SEO (Od Koraya, ale też śledząc innych specjalistów jak Olaf Kopp, Massimiliano Geraci, czy społeczność Holistic SEO / Topical Authority).
  3. Analizowałem wszystkie możliwe nowości wypuszczane przez Google (BERT, passage indexing, MUM, Direct Answers, BARD/ Gemini, AI Overviews -> to wszystko fundamenty AI mode).
  4. Analizowałem przecieki (Google Warehouse API Leak), exploity (klasyfikacja zapytań) oraz zeznania przed departamentem sprawiedliwości.

Ta wiedza pozwoliła mi i mojemu zespołowi pracować na nowych metodach opartych na uczeniu maszynowym, wykorzystywać świadomie modele językowe, API, rozwiązania no-code, low-code i tworzyć autorskie rozwiązania. Na przykład takie, dzięki którym mogę przeliczać, analizować, porównywać (z konkurencją) i optymalizować zbieżność tematyczną serwisów:

Autorskie rozwiązanie do liczenia i wizualizacji SiteRadius

Drugi typ działań przygotowawczych, to konkretne decyzje biznesowe. Wśród nich mogę wymienić:

  1. Łączenie SEO z UX. W takaoto.pro oferujemy audyty UX od dawna. Sam od ponad roku dołączam analizy UX do swoich działań konsultingowych i audytorskich. Traktuję ruch z wyszukiwarki jako początek dłuższego procesu, który ma zmierzać do konwersji.
  2. Fokus na customer journey. Odrobiłem lekcje związane z planowaniem, analizowaniem i mapowaniem wędrówki użytkownika. W tym kontekście uznałem, że konieczne jest sekwencyjne tworzenie treści, linkowanie wewnętrzne oparte na lejkach (a nie tylko sztywno rozumianej semantyce), a także dołączenie PPC do oferty.
  3. Uruchomienie usług PPC: Google Ads, Microsoft Ads w takaoto.pro w 2024 r. w celu większej kontroli nad całym procesem od wyszukiwania, do konwersji. Bez usług PPC i działań UX, ogromna część potencjału SEO jest marnowana, a ROI nie jest satysfakcjonujący. Efektem jest status partnera Google i referencje od zadowolonych klientów.

Co z tego wynika dla Ciebie?

Teraz mamy komplet – rozumiemy AI, tworzymy autorskie narzędzia, mamy świetny zespół contentowy rozumiejący customer journey i język marki, znamy się na SEO, posiadamy bardzo duże doświadczenie w link buildingu, wiemy jak to wszystko łączyć z UX, a także domykać szczelnie kampaniami PPC.

Czy jesteśmy gotowi na AI mode? Trudno powiedzieć. Pewnie nikt nie jest. Czy przygotowaliśmy się jak tylko się dało? Jestem przekonany, że tak.

Także zapraszam do świata odpowiedzi AI, utrudnionej analityki, zmiennych KPI. To świat dla marketerów, którzy są gotowi, aby odejść od kwartalnego liczenia ROI z każdej kampanii z osobna, i wrócić do odważnych kampanii opartych na strategii, psychologii, pokrywaniu customer journey, budowaniu marki top of mind i zorientowanych na zwiększanie udziału w rynku.

Udostępnij post:

    Opisz swoje potrzeby:

    This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.