Na początku sierpnia miała miejsce poważna aktualizacja algorytmu Google. Na początku nazwana Medical Update, bo według pierwszych obserwacji miała dotknąć głównie stron o tej tematyce. Okazało się jednak, że to poważniejszy update o dużo szerszym zasięgu. Nie mam żadnej recepty, ani precyzyjnej diagnozy, lecz chciałbym podzielić się swoimi obserwacjami i przemyśleniami (z których jednak jakieś tam wnioski wynikają).
W kontekście aktualizacji algorytmu dużo mówi się w branży o nowych wytycznych dla raterów Google. Kwestię tę w swoich artykułach poruszali między innymi Grzegorz Strzelec (na łamach Forbesa), Sławomir Czajkowski, Rafał Grochala (dwukrotnie na blogu NPROFIT), a także Jakub Alizade Sani (na blogu Zgreda). W tym kontekście padają głównie kwestie związane z rolą E-A-T (oraz ogólnie, autorytetu autora treści), YMYL (wyjaśnione np. na SEMRUSH, więc już nie będę się w to zagłębiał).
To ważne kwestie do obserwowania na przyszłość, nie mam co do tego wątpliwości. Czy jednak odpowiadają za zmiany w wynikach wyszukiwania, które obserwujemy od 1 sierpnia? Publikacja nowych wytycznych i zmiany w wynikach wyszukiwania nastąpiły tuż po sobie, więc nic dziwnego, że wiele osób doszukuje się tu jakiegoś ciągu przyczynowego skutkowego. Nie wydaje mi się jednak, aby nowe zasady pracy raterów miały kluczowe znaczenie w kontekście sierpniowego przetasowania.
Pierwsza wątpliwość – czas
Po pierwsze – to są wytyczne dla raterów, którzy dopiero musieli się z tym zapoznać i zacząć wdrażać w swoich ocenach. Oni nie są algorytmem, który decyduje, co będzie wysoko, a co nisko. Jedynie odpowiadają za ludzki czynnik – wkładową do algorytmu (poza ludzkim czynnikiem w postaci zachowań userów, ale to też słabo zbadany i mało transparentny rewir).
Musi minąć trochę czasu, jak sądzę, zanim te dane się przetworzą i przełożą na poważne zmiany w algorytmie. Podejrzewam też, że najpierw i tak obserwowana jest jakaś próbka, aby sprawdzić, czy te wkładowe dane wpływają na poprawę SERP-ów (mierzoną zachowaniami userów – mniej pogo sticking etc.).
Druga wątpliwość – waga czynnika ludzkiego
Nie wiemy, jaką wagę mają informacje przekazywane do bazy przez osoby oceniające witryny (chyba, że gdzieś była o tym mowa? Nie zauważyłem)… Myślę, że odpowiadają raczej za kalibrowanie algorytmu, drobne korekty, niż za poważne zmiany (zwłaszcza w krótkim okresie).
W którejś z wypowiedzi bodajże John Mueller (lub inny przedstawiciel Google – jeśli pamiętacie podrzućcie w komentarzu) podkreślał, że informacje przekazywane przez osoby oceniające witryny dla Google nie wpływają bezpośrednio na pozycjonowanie stron, a jedynie stanowią wskazówkę dla algorytmu, który ma się nauczyć podobnego myślenia, co człowiek stosujący określone kryteria oceny.
Trzecia wątpliwość – własne obserwacje
Od początku sierpnia patrzę na strony u siebie. Praktycznie wszystkie można podciągnąć pod YMYL, bo to głównie strony firmowe i e-commerce. Nie mam pod opieką stron o tematyce lifestyle, rozrywka itp. Porównując domeny, które zyskały na początku sierpnia z tymi, które odnotowały jakieś spadki, nie widzę żadnej prawidłowości związanej z „eksperckością” treści. Nie widzę wpływu „podpisywanych” artykułów, renomy autorów itp.
Zresztą w mojej ocenie eksperckość treści to raczej topical authority (na poziomie URL, jak i domeny) w wydaniu proponowanym przez Damian Sałkowski niż jakieś etykiety, podpisy, author ranki i inne tego typu wymysły – dość łatwe do zmanipulowania przy zerowej wartości dodanej dla użytkownika.
To, co raczej różnicuje strony, które zyskały i straciły (w moim przypadku – kwestia kilkunastu domen i ich otoczenia, więc oczywiście nie ma tu żadnej istotności statystycznej, a raczej prawidłowość, którą obserwuję przy analizie każdej kolejnej domeny) to czynniki stricte on-page. Wydaje mi się, że nie bez znaczenia jest architektura informacji (obecność np. stron z thin content, kanibalizujących się itp. – np. kategorie i tagi z niemal takimi samymi title), duplikacja treści, względna (w kontekście branży) obszerność contentu i jego tematyczność.
Nie widzę też żadnych prawidłowości związanych z linkami. Dyskusje w kuluarach (czyt. na messengerze) również utwierdzają mnie w przekonaniu, że to raczej „on-page’owa” aktualizacja.
Jeszcze bardziej na znaczeniu zyskuje zatem (w dłuższej perspektywie) zadbana architektura informacji, unikalny content (pisany przez osobę biegłą w temacie; poprzedzony researchem), unikanie stron typu thin content i kanibalizujących się (ogrom zagubionych tagów i przypadkowo tworzonych kategorii), przemyślane linkowanie wewnętrzne, jednoznaczne kierowanie googlebota, aby mógł łatwo dopasować wartościową stronę docelową do zapytania użytkownika.
To takie moje przemyślenia. Chętnie poznam Wasze obserwacje.
Klauzula antyhejtu: Nie mówię, że we wspomnianych na początku artykułach są popisane bzdury. Nad wieloma obserwacjami warto się pochylić. Wiele wniosków i postulatów w dłuższej perspektywie pewnie się spełni w jakimś stopniu, bo Google jasno pokazuje, w jakim kierunku chce iść i jakie rezultaty premiować. Inną kwestią jest techniczna implementacja tych celów w skali makro w sposób spójny, konsekwentny i satysfakcjonujący dla użytkownika końcowego. Ponadto zauważyłem, że wiele osób odebrało te artykuły w uproszczeniu jako argument, że np. E-A-T bezpośrednio przełożyło się na spadki stron z początkiem sierpnia. Stąd moja polemika.