Czemu Google premiuje znane marki i dużych wydaców, a nie ekspertów?

Biznes online, Content marketing

Aktualnie w SEO na popularności zyskuje narracja, że Google premiuje dużych, a nie małych wydawców, znane marki, a nie mniejszych usługodawców. Nie mówię, że tak nie jest, bo faktycznie takie trendy w makro skali obserwujemy. Pytanie, z czego to wynika. Spisek korporacji? Czy może lepsza optymalizacja lub większe budżety? A może jeszcze coś innego? Pozwolę sobie pogdybać i postawić pewne tezy. Podstawowa jest taka, że Google działa, co do zasady, logicznie. Mam świadomość, że to niepopularna opinia, ale trudno.

Ten artykuł proszę potraktować jako felieton. Kieruję go zarówno do wydawców, jak i mniejszych producentów, resellerów oraz samych specjalistów SEO.

Żeby nie było niedomówień:

Felieton (fr. feuilleton „zeszycik, odcinek powieści”) – gatunek publicystyczny, krótki utwór dziennikarski (prasowy, radiowy, telewizyjny) utrzymany w osobistym tonie, lekki w formie, wyrażający punkt widzenia autora. Porusza i komentuje aktualne tematy społeczne, zwracając uwagę na ujemne zjawiska w życiu codziennym. Często wykorzystuje w tym celu elementy satyry, ironii, humoru itp.

https://pl.wikipedia.org/wiki/Felieton

Zatem siłą rzeczy ten tekst jest pełną, dogłębną analizą tematu. FYI.

Eksperckość? A na co to komu?

Po pierwsze, Google nie jest w stanie ocenić treści pod względem, tak zwanej eksperckości (pokrycie tematyczne wcale jej nie gwarantuje).

Po drugie, należy sobie zadać pytanie, po co Google na tejże eksperckości miałby się skupiać, skoro większość użytkowników nie potrafi czytać ze zrozumieniem poważnych tekstów (sic!) i dlatego szuka łatwych treści, które bez wchodzenia w detale dają kawę na ławę.

Zbulwersowanym proponuję sięgnąć po dowolną instrukcję urządzenia elektrycznego. Ba! Pewnie i ten tekst zostanie przez większość zainteresowanych zaledwie przeskanowany wzrokiem.

Wydawcy, contentowcy, dziennikarze, seowcy i marketerzy żyją w bańce ludzi wykształconych, szukających informacji, robiących research, pracujących z tekstami, z danymi. Większość ludzi tak nie działa! Zakładanie, że artykuł, który jest bardzo rozbudowany, tłumaczy niuanse, cytuje ekspertów, używa profesjonalnego języka, jest lepszy dla użytkownika (statystycznie), jest wynikiem błędu poznawczego. Przenosimy (w tym przypadku) obserwacje z naszego otoczenia na całą populację użytkowników internetu.

Notabene, w innych sytuacjach bardzo łatwo nam podkreślać, że większość ludzi to idioci, a my jesteśmy wyjątkowi, ale to inna historia…

Ekspert kontra ekspert

Jeśli kogoś jeszcze to nie przekonuje, to podam kolejny argument. Przypomnijcie sobie debaty specjalistów w różnych programach publicystycznych, którzy kłócą się o kwestie ekonomiczne, społeczne, polityczne, demograficzne, ekologiczne… Każdy z nich ma tytuł naukowy lub dorobek publicystyczny, co w rozumieniu naszej internetowej kultury content marketingu czyni go ekspertem.

A jednak ci eksperci czasem prezentują sprzeczne opinie. Które z nich zatem Google ma premiować? Kto jest w stanie to rozsądzić? Algorytmy Google nie mają aparatu do stwierdzenia, która treść jest ekspercka. Zresztą, parę dni temu widziałem, jak debatę na temat globalnego ocieplenia, prowadził na największym polskim portalu ekonomista, będący z wykształcenia… prawnikiem. Tyle w temacie.

Wartościowy content, czyli jaki?

Obserwujemy boom treści generowanych przez AI. Raz są to treści lepsze, raz gorsze, ale nie zmienia to faktu, że powstaje ich ogrom. I takie są fakty.

Algorytmy wyszukiwarki oczywiście posiadają pewne mechanizmy do oceny jakości treści. Jednak działają one raczej na takiej zasadzie, że mają na celu odsiewać treści najgorsze, bzdurne, nienadające się do czytania. Nie są to mechanizmy pozwalające na wyłonienie najlepszej treści.

W ostatnich latach bardziej dopracowane treści wygrywały, ale jeśli już każdy korzysta z Surfera, NeuronWritera (ogarnij lifetime deal) czy chociażby Senuto na polskim rynku, każdy nasycił swoje treści frazami, zbudował optymalne śródtytuły, zrobił tę całą inżynierię odwrotną i dodał właściwe entities… to Google nie ma już dodatkowych czynników, na których mógłby się oprzeć i zadecydować, która treść jest lepsza. To znaczy są, ale nie są to czynniki stricte contentowe, o czym zaraz.

Dlaczego więc treści z twojego dopracowanego bloga czy małego magazynu pisanego przez pasjonatów (ba, ekspertów), miałyby być przez Google uznane za lepsze? Jaki mechanizm powinien być za to odpowiedzialny? I czy na pewno byłoby to lepsze dla użytkowników, których większość nie jest zainteresowana twoimi rozważaniami i dociekaniami? Czy jedynie dla ciebie?

Linki

W momencie, gdy pojawiły się narzędzia do skalowania treści, niektórzy specjaliści wieszczyli, że to koniec SEO, bo „zaleje nas AI”. Nie rozumiałem do końca tej argumentacji i wraz z kilkoma innymi kolegami szybko doszliśmy do konsensusu, że inflacja treści spowoduje wzrost wartości innych czynników.

Obecnie jedynym skalowalnym (pozwalającym różnicować konkurentów) czynnikiem budującym autorytet są linki. Co do tego nie mam wątpliwości. Oczywiście, żeby robiły robotę, musi być spełniony szereg innych kryteriów związanych z: zaufaniem do strony, topical authority i pozytywnym odbiorem ze strony użytkowników (do czego zaraz też przejdę).

Widzę utyskiwania niektórych seowców, że linkami nie są w stanie walczyć o topowe pozycje. Słyszę głosy, że to się nie opłaca. Ale to nie znaczy, że linki nie działają, tylko że kupujesz zbyt słabe linki i w twoim projekcie nie ma środków na te lepsze, zwykle droższe.

Dlatego właśnie duże marki rosną na aktualizacjach algorytmu. Dlatego duzi wydawcy wygrywają z małymi. Mają lepszy profil linków, więcej odnośników z seed pages, większą skalę oddziaływania i większą wiarygodność. Duzi wydawcy sami stają się seed pages.

Dlaczego Google nic z tym nie zrobi? Mimo wszystko „bezpieczniej” jest odsyłać do informacji z dużego medium, które jest pod ciągłą obserwacją innych mediów, komentatorów itd., niż do niszowego publicysty, którego fachowość trudno jest zweryfikować.

Nie chcę wchodzić w dyskusję o kondycji mediów, ale w kontekście obecnego poziomu konsumpcji informacji takie rozwiązanie wydaje się sensowne i z perspektywy Google bezpieczne.

Chcąc poczytać na jakiś temat, użytkownik może sobie wybrać w topach, czy preferuje medium A, czy medium B, ale oba zna. Jakby miał wybrać tekst Jana Kowalskiego z „Jan Kowalski blog o {cokolwiek}”, to istniałoby duże ryzyko, że czytelnik pomyślałby – „co to za bzdury Google mi tu daje????”

…A celem Google jest dowożenie satysfakcjonujących sesji użytkownikom. Tylko tyle i aż tyle. Strategia jest logiczna.

Sygnały behawioralne

Wspomniałem wcześniej o sygnałach behawioralnych, czyli czynnikach związanych z zachowaniami użytkowników. Nie jest to prosty temat, zwłaszcza w zakresie pomiarów, ale jednak trzeba się z nim zmierzyć. Google od dłuższego czasu jest w stanie oceniać satysfakcję użytkowników korzystających z poszczególnych stron.

Jeśli widzi, że w danym temacie serwis X dowozi użytkownikom satysfakcjonujące (na tle innych) treści, to daje mu kredyt zaufania. Dokonuje predykcji, że ta witryna, w tej tematyce, jest warta wyświetlania wysoko. Mniejsze serwisy, z mniejszą liczbą sygnałów behawioralnych lub z negatywnymi sygnałami (np. od laików, którzy opuszczają masowo eksperckie blogi, bo ich nie rozumieją), po prostu przegrywają.

I jeśli skupimy się na krótkoterminowym interesie użytkownika Google, to dobrze, że przegrywają – niezależnie od tego, czy nam się to prywatnie podoba, czy nie. Bardzo często mi też się to nie podoba, ale co z tego? 🙂

Rozważania moralne i filozoficzne odstawmy w tym momencie na bok. Bądźmy profesjonalistami. Ponadto przypominam, że podejmuję polemiką z jedną z narracji, a nie z jakimś pełnym obrazem rynku SEO.

Marka to wartość

W badaniach rynkowych regularnie wychodzi, że ludzie, co do zasady, w większości preferują znane marki. Czemu inaczej miałoby być w Google? Wyszukiwarka też zbiera pewne sygnały, które mogą to potwierdzać.

Strony dużych marek mają (w dużym uproszczeniu) więcej dobrych linków, więcej treści i pewnie też lepsze sygnały od użytkowników. Są chętniej klikane, często mają lepszy UX, są preferowanym wyborem. Budują też więcej punktów styków, które je uwiarygodniają (reklamy, obecność w różnych kanałach), a także budują przyzwyczajenie, przez co są wybierane regularnie (w tym poprzez ruch direct).

Kierowcy chętniej wybierają znane stacje benzynowe usytuowane tuż przy autostradzie – gdzie mają kartę na punkty, myjnię, i na których mogą kupić hot doga – niż nikomu nieznane stacje oddalone o dwa kilometry od trasy. Ze stronami internetowymi jest bardzo podobnie.

Dlatego Google podejmuje statystycznie słuszną (korzystną dla użytkownika) decyzję, sugerując swojemu użytkownikowi skorzystanie ze znanego medium lub dużego sklepu internetowego z szeroką ofertą i dopracowanym UX.

Od dawien dawna wiadomo, że wszystkie rynki w długiej perspektywie dążą do konsolidacji, w naturalny sposób dochodzi do wyłonienia kilku liderów, a bariery wejścia są coraz wyższe. Rynek internetowy nie jest tu wyjątkiem. Te zmiany po prostu przyspieszyły i małym graczom jest coraz trudniej rywalizować o topowe pozycje. Wszystkie mechanizmy (i rozmaite sztuczki SEO) pozwalające walczyć o ruch z Google, są dość sprawnie wdrażane przez duży biznes z kapitałem.

Helpful Content System i hidden gems?

Google ma świadomość, że część użytkowników szuka bardziej eksperckich treści, głębszych analiz, bardziej rozbudowanych porad etc. Zasygnalizowano to, wdrażając Helpful Content System oraz wprowadzając zmiany w Core Update, które mają w przyszłości pozwalać na znalezienie tzw. hidden gems, czyli klejnotów wyróżniających się w danej tematyce.

Jeśli jesteś specjalistą, wymagającym użytkownikiem, to być może jest dla ciebie nadzieja, że w bardziej spersonalizowanych wynikach znajdziesz coś dla siebie.

Ma za to odpowiadać osobny mechanizm, który pominie główne czynniki (np. mocny profil linkowy). Jak widać jednak, na ten moment to nie za bardzo działa. A to jeszcze bardziej potwierdza, że rozsądnie jest skupić się na linkach. Rozumiem rozgoryczenie tych, którzy wylewają pot i łzy, tworząc tzw. wartościowe treści, które finalnie nie są premiowane przez algorytm. Naprawdę, rozumiem.

Jednak patrząc na całość w ujęciu statystycznym, należy przyjąć, że tak musi być. Być może masowy kanał komunikacji nie jest odpowiednim kanałem dla Was? Wydawnicze „marki premium” i marki eksperckie muszą albo nawiązać współpracę z gigantami, albo znaleźć inne kanały dotarcia.

W tym te bardziej niszowe, oparte na lojalności i ekskluzywności, jak np. zamknięte grupy czy newslettery. Wielu ekspertów z powodzeniem w ten sposób działa już od lat. Może pora i na ciebie?

Podsumowując

  • Jeśli reprezentujesz biznes (producenta, sklep internetowy etc.), to miej na uwadze rosnące, kapitałowe bariery wejścia, a nie tylko złe algorytmy Google.
  • Jeśli reprezentujesz stronę wydawcy – działaj jak duzi, sprzedaj się, dołącz do grupy wydawniczej, nawiąż współpracę z dużą marką.
  • Jeśli jesteś seowcem – celuj w większych klientów, bo tam siłą rzeczy przesuwa się kapitał także w branży SEO.

PS. Na koniec warto dodać, że część średnich i większych serwisów też potraciło ruch i zauważa, że SERP-y zostały bardziej zdywersyfikowane i mniej stabilne. Pozwolę sobie przytoczyć tu komentarz Waldka Sumorka z jednej z grup na Facebooku:

„Sprawa wygląda tak, że wcześniej TOP10-20 stron/sklepów zgarniały cały tort – ruch/frazy (robili SEO). Teraz ruch został podzielony na 200 stron, dlatego widać głównie wyraźne i mocne spadki, a niewielkie wzrosty. Dla przykładu… TOP20 stron straciło po 20k/mc ruchu, a 180 stron zyskało raptem po 2k. To powoduje, że tych 180 wydawców niewiele zyskuje (nadal nie będą robić SEO), a bardzo osłabia mocniejszych (ci mogą przestać to robić bo jest nieopłacalne). Generalnie tracą strony/sklepy, a zyskuje googiel na reklamach. gogule wydymało sporo osób na potęgę co z resztą zaczyna się mocno odbijać echem zagramanicą. Doczekaliśmy się czasów, że google stało się mega pasożytem. Warto o tym pisać i uświadamiać ludzi, bo uczenie AI na bazie sklepów/blogów/portali wygląda mocno na kradzież własności intelektualnej.” (pisownia oryginalna)

Waldemar Sumorek

Pokazuje to tylko tyle, że SERP-y się destabilizują i może być ciężej dowozić równe wyniki kwartał do kwartału, rok do roku. Dużo serwisów bazujących na AI i programmatic SEO wbija się w topy, buduje dynamicznie widoczność, potem nie zawsze ją utrzymuje.

To też pokazuje, że SEO w krótkiej i długiej perspektywie, to dwie różne bajki, a koniec końców wygrywać będą domeny z autorytetem (w tym w dużej mierze linkowym), których content jest walidowany za pomocą danych behawioralnych. Bez nich (choćby symulowanych różnymi blackhatowymi technikami), po krótkim wzroście widoczności, ciężko jest utrzymać topowe pozycje.

Udostępnij post:

    Porozmawiajmy o SEO!

    This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.