Udostępnij:

Pozycjonowanie stron często przypomina śledztwo detektywistyczne. Widzimy czasem spadki (pozycji, widoczności, ruchu), ale nie wiemy, z czego wynikają. Musimy znaleźć przyczyny – zmiany w algorytmie, atak złośliwego oprogramowania, aktywność konkurencji, czy też zwykła sezonowość. Jak się zabrać za analizę?

Spadki ruchu z Google – wybrane przyczyny

Gdzie i jak szukać przyczyn spadku ruchu organicznego? Zwykłe śledzenie pozycji (np. za pomocą SeoStation, Webpozycja itp.) dla kilku najważniejszych słów kluczowych to za mało. Analizując dane można bowiem dojść do różnych, pozornie sprzecznych wniosków. Na końcu artykułu zresztą pokażę taki ciekawy przypadek.

Na początek na wszelki wypadek na początek zdefiniuję kilka pojęć, aby wszystko było jasne dla mniej biegłych w temacie czytelników:

  • Pozycje – miejsca, na których pojawia się dana strona internetowa (konkretny adres URL strony głównej lub podstrony). W kontekście pozycji często używa się sformułowań TOP3, TOP10, które po prostu oznaczają konkretne przedziały pozycji. TOP3 – to pierwsza trójka wyników. TOP10 – pierwsza dziesiątka (oznacza także po prostu pierwszą stronę wyników wyszukiwania, gdyż domyślnie, jeśli sami nie zmienimy ustawień wyszukiwarki, tyle właśnie wyników organicznych jest prezentowanych).
  • Ruch organiczny – wizyty użytkowników przychodzących z nieodpłatnych źródeł (czyli nie z reklam bannerowych, AdWords, Facebook Ads itp.). W kontekście SEO przez ruch organiczny rozumiemy ruch z bezpłatnych wyników wyszukiwania – najczęściej w Google (lecz może być też Bing, Yahoo, Baidu, Seznam etc.).
  • Widoczność SEO – stopień ekspozycji zasobów strony w wynikach wyszukiwania mierzony liczbą fraz w poszczególnych przedziałach pozycji – przykładowo strona, która w TOP10 ma 100 fraz ma wielokrotnie większą widoczność, aniżeli strona, która ma w top10 1 frazę. Niekoniecznie musi się to liniowo przekładać na ruch, ponieważ strona będąca na pierwszej pozycji dla jednej, ale bardzo popularnej frazy może przyciągać więcej ruchu z Google niż witryna widoczna na dziesiątki mało popularnych fraz na 10 pozycji (choć jest to skrajny przypadek, i stosunkowo rzadko spotykany).

Przyczyn spadków ruchu (jak i wzrostów) może być wiele. Mogą to być na przykład następujące czynniki: filtry, fluktuacje, czy też teoretycznie niezwiązane stricte z SEO – problemy wizerunkowe lub sezonowość. Omówię je pokrótce:

Filtr

Filtr to inaczej kara nałożona przez Google. Filtry dzielą się na algorytmiczne i ręczne. Te drugie lubimy bardziej, bo Google nas powiadamia w Google Search Console, jaka jest przyczyna i co zrobić, aby się jej pozbyć. Filtrów nie należy mylić z banem, czyli sytuacją (stosunkowo rzadką), gdy Google, w ramach kary za stosowanie niedozwolonych praktyk, całkowicie wyindeksowuje zasoby danej domeny ze swojej bazy i uniemożliwia pojawianie się w wynikach wyszukiwania (i co za tym idzie, pozyskiwanie ruchu).

Fluktuacje

Nieustannie obserwujemy nieregularne zmiany widoczności stron w wynikach wyszukiwania związane z “dostrajaniem” algorytmu Google. Trzeba brać pod uwagę, że rozwój algorytmów Google odpowiedzialnych za analizę stron i zapytań (efektem których jest potem określony kształt wyników wyszukiwania) ma charakter ciągły.

Jeszcze jakiś czas temu byliśmy przyzwyczajeni do większych aktualizacji, które następowały co parę miesięcy lub tygodni. Obecnie, te zmiany następują codziennie. Waga pojedynczych czynników SEO (a jest ich naprawdę wiele) się nieustannie zmienia. Jakość wyników wyszukiwania jest nieustannie badana.

Zmiany podnoszące jakość wyników zostają zachowane, a te pogarszające, wycofywane – i tak w kółko. W efekcie w wielu branżach ciężko liczyć na stabilne pozycje (chyba, że jest się niekwestionowanym liderem, branża jest dojrzała, rynek jest oligopolem).

Problemy wizerunkowe

Nie zapominajmy, że w przypadku wielu firm dużą część ruchu wynika z wyszukiwań marki (tzw. ruch brandowy – zob. też: Rola marki w SEO – takaoto.pro). Jeśli zainteresowanie marką słabnie, to również może spaść liczba sesji z wyników organicznych. W takiej sytuacji możemy nie zaobserwować żadnych spadków pozycji. Raczej powinniśmy sprawdzić liczbę wyświetleń fraz brandowych w Google Search Console).

Sezonowość

Zainteresowanie zasobami wielu witryn ma charakter sezonowy. Niekoniecznie dotyczy to tylko branż w oczywisty sposób sezonowych, jak np. sklepy ze sprzętem narciarskim. Po prostu, niektóre tematy cieszą się większym lub mniejszym zainteresowaniem w zależności od miesiąca.

Przykładowo – zobacz wykres sezonowości domeny empik.com (dane z narzędzia Senuto; przeczytaj więcej o sezonowości w omówienie głównego dashboardu tego narzędzia: https://wiki.senuto.com/dashboard/):

sezonowosc witryny empik

Potencjał słów w TOP10 dla tej ogromnej witryny waha się od około 17,2 mln (-5,8 mln względem średniej) w lipcu do 29,5 mln w grudniu (+6,3 mln względem średniej). To bardzo ważny czynnik w analizie SEO!

 

Finalnie wielkość ruchu organicznego jest wypadkową widoczności i pozycji. Należy jednak pamiętać, że zainteresowanie każdą frazą może zmieniać się w czasie. Może więc dochodzić do sytuacji, w której widoczność jest stała (strona wyświetla się na określoną liczbę słów kluczowych), pozycje są stałe (nie odnotowujemy spadków pozycji dla tych słów), a ruch spada. Dlatego samo monitorowanie pozycji nie zawsze jest dla biznesu wystarczającym miernikiem pozwalającym prognozować korzyści z ruchu organicznego.

Analiza widoczności i trudność wyciągania wniosków

Pokażę ci teraz dość ciekawy, specyficzny przykład. Analiza problemu tej witryny stanowiła de facto inspirację do przygotowania tego artykułu. Odnotowałem u jednego z klientów drastyczny spadek widoczności domeny w TOP50, przy jednoczesnych wahaniach widoczności w TOP 10 (finalnie z wyraźnym wzrostem) i podniesieniem widoczności w TOP3. Na wykresach zaznaczam widoczność z dnia 20 listopada i stan na dzień dzisiejszy (23 grudnia).

TOP50 – spadek z 565 fraz do zaledwie 346:

widocznosc top50 senuto

źródło: Senuto

TOP10 – spadek z poziomu 35, odbicie i wzrost do 42 fraz

widocznosc top10 senuto

źródło: Senuto

TOP3 – wzrost z 7 do 16 fraz

widocznosc top3 senuto

źródło: Senuto

F*ck the logic

Jak to jest, że dla dziesiątek fraz pozycje spadają poza 5. stronę wyników w Google, a jednocześnie dla innych fraz pozycje wskakują na pierwszą stronę, a nawet do ścisłej czołówki? Sytuacja dość kuriozalna i pokazująca, że zmiany w Google nie zawsze są jednokierunkowe i łatwe w interpretacji – dzieje się coś złego i spadamy lub dzieje się coś dobrego i rośniemy.

Oczywiście finalnie w biznesie liczy się to, ile właściwie ruchu z Google przyciągamy, i jak przekłada się na realizację celów. Popatrzmy zatem na ruch z bezpłatnych wyników wyszukiwania dla tej witryny:

ruch z google organic

screen z Google Analytics

Widać, nieduży, lecz stopniowy spadek. Można by było dojść do wniosku, że słowa kluczowe w TOP50 generowały ruch i spadek widoczności w tym przedziale przełożył się na spadek liczby sesji w witrynie, a wzrosty w TOP10 i TOP3 tego spadku nie skompensowały. Jednak, jak już wspominałem, należy brać pod uwagę także sezonowość. Dla omawianej witryny wygląda ona następująco:

sezonowosc domeny w Google

źródło: Senuto

Grudzień to obok sierpnia i września najsłabszy pod względem zainteresowania odbiorców miesiąc w roku dla tej witryny. Po nim następuje ogromny skok (pierwsze miesiące roku cechują się największym popytem). Dlatego też analizując ruch należy patrzeć na rok poprzedni. W tym przypadku również widzimy charakterystyczny spadek w badanym okresie:

sezonowy spadek ruchu w Google

Ogólnie rzecz biorąc nie ma powodu do paniki, bo względem poprzedniego roku (pracujemy nad tą stroną dopiero od stycznia), ten ruch jest dużo, dużo większy (wynika to z linkowania, redesignu, połączenia z blogiem i rozbudowy treści):

porownanie ruchu rok do roku

Poszukiwanie przyczyn sytuacji

Szukając przyczyn zmian, warto patrzeć na szersze analizy (publikowane np. na forach i grupach związanych z SEO) i komunikaty Google (na ich blogu lub też innych blogach na temat SEO, które trzymają rękę na pulsie). Przykładowe źródła wiedzy:

W kontekście omawianego case’a, również poszedłem w tym kierunku. Jednym z głośniejszych tematów jest ostatni potwierdzony update Google. Dotyczył w dużej mierze danych strukturalnych na stronach. Jeśli interesuje cię ten wątek to odsyłam:

W tym przypadku dane strukturalne raczej nie były przyczyną, ponieważ spadki w TOP50, jak wcześniej pokazałem, zaczęły się parę tygodni wcześniej – już w okolicy 20 listopada. Niemniej stanowiło to bodziec, aby dodać dane strukturalne do artykułów na blogu w obrębie witryny. Sam jestem ciekaw, czy widoczność bloga zmieni się w najbliższym czasie. Jednak w kontekście wielu następujących zmian (sezonowość, działania konkurencji, aktualizacje algorytmu, pomniejsze fluktuacje), ciężko będzie jednoznacznie wnioskować, czy akurat ta zmiana pomogła, gdyby liczba fraz w TOP50 znowu zaczęła rosnąć.

Analiza konkurencji

Badając widoczność, ruch i pozycje w Google należy patrzeć też na zmiany u konkurencji. Jeśli obserwujemy jednostkowy spadek pozycji, przyczyną może być po prostu poprawa witryny konkurenta (dodanie treści, poprawa wydajności, pozyskanie linków). W przypadku takich “globalnych” zmian dla wielu fraz, śledztwo robi się bardziej skomplikowane.

Zdarza się jednak sytuacja, w której zmiany algorytmiczne powodują wahania widoczności dla całej branży (na określone słowa kluczowe). Dlatego też stwierdziłem, że sprawdzę, co się dzieje z widocznością stron w TOP50 u głównych konkurentów:

konkurencja seo1 konkurencja seo2 konkurencja seo3 konkurencja seo4 konkurencja seo5 konkurencja seo6

W przypadku witryn konkurencji także widać spadki, chociaż w dwóch przypadkach widać także odbicie w górę. Dla pełnego obrazu sytuacji należałoby przeanalizować szereg stron w różnym kontekście (nie tylko słów kluczowych, ale także wielkości, CMS, struktury etc.).

Przeczytaj też: Analiza konkurencji SEO – od czego zacząć? – Takaoto.pro

Analiza profilu linków

Spadki mogą być też spowodowane jakimiś dużymi zmianami w profilu linków (chociaż akurat to w małym stopniu tłumaczyłoby spadki w TOP50, a wzrosty w TOP10 i TOP3). Badana domena ma dość zdywersyfikowany profil linków, a przyrost linkujących domen jest zrównoważony:

domeny linkujace ahrefs

Przyrost domen linkujących do strony, źródło: Ahrefs

Przyczyną spadków (chociaż raczej nie w tym przypadku) mogą być utracone linki. Jeśli do strony prowadzi wiele odnośników wpływających na pozycjonowanie i nagle ich duża liczba znika (np. jakiś serwis lub całe zaplecze zostaje wyłączone lub po prostu linki są usuwane), to strona może stracić pozycje. W tym celu szukamy tropów w raportach utraconych linków w stosownych narzędziach – np. Lost Backlinks lub Lost Referring Domains w Ahrefs. Od dwóch miesięcy utraconych zostało zaledwie kilka linków z forów (zapewne za sprawą moderacji).

Podsumowanie i wnioski

Cała sytuacja wydaje się dość dziwna. U czołowych konkurentów także widzimy spadki w TOP50 (chociaż rozbieżność nie jest tak duża, jak w przypadku strony klienta). Zatem można wnioskować, że to raczej jakieś zmiany algorytmiczne dotykające całej niszy, a nie tylko problemy z daną domeną. Jednak zależności nie są aż tak bardzo wyraźne. Sprawa zostaje zatem zagadką póki co. Pozostaje czekać na rozwój wypadków i jednocześnie dbać o dalszą poprawę kondycji witryny stałymi metodami (przyrost zróżnicowanych linków z popularnych stron, rozbudowa treści, poprawa wydajności). Tropem może być też dokładniejsza analiza zmian w przypadku witryn, które zaliczyły spadek, a następnie odbicie. Prawdopodobnie ten artykuł będzie się rozwijał 😉

A może macie jakieś swoje teorie lub znacie przykłady podobnych sytuacji, kiedy w TOP50 widoczność spada, a w TOP3 i TOP10 rośnie? 🙂

Edit: dodaję spływające stopniowo opinie specjalistów:

Paweł Gontarek www.zgred.pl

Pawel Gontarek

Nie ma filtrów algorytmicznych – to czysta rekalkulacja wyników ale potocznie zwiemy to filtrem chociaż takowym, nie jest.

Zmiany odnośnie widoczności, ruchu trzeba śledzić na poziomie Google Search Console – niejednokrotnie na pojedynczych adresach URL widać spadki (Phantom), grupie stron (według GA) – dlatego tak istotne jest obserwowanie dużej liczby słów kluczowych. Jeśli jakieś słowo „leci” na pozycjach to dłubiemy. W przypadku Phantoma, gdy wypadają pojedyczne strony, analiza i diagnostyka zajmuje kilka dni. W przypadku Pandy / Pingwina zdecydowanie możemy mówić o godzinach.

Jeśli znika TOP50, przyczyn może być wiele: odcina bardzo długi ogon, który nie jest wzmacniany; brak linkowania.

Jeśli rośnie top3 i/lub top30, to raczej ze strukturą nie ma problemów.

Jeśli w GSC spada liczba zindeksowanych podstron z reguły jest to problem onsite’owy – szukasz wtedy linkowania wewnętrznego (problemów), błędów 40x, błędnego silosowania, reklam…

Analiza konkurencji w przypadku własnych spadków może być trudna albo dać odwrotne rezultaty bo … konkurencja działa w innej strategii. Na to trzeba uważać. Poza tym konkurencji nie spadło – to jest odwieczne pytanie dlaczego? A bo Google uznało, że Tobie dokopie a Im nie – proste.

Michał Suski, SurferSEO

Michal Suski Surfer SEO

Frazy w top 50 dla domeny, która jest obecna na rynku od dłuższego czasu to zazwyczaj długi ogon. Z dużym prawdopodobieństwem można stwierdzić, że spadek tak dużej ilości fraz dotyczy problemu na wielu podstronach jednocześnie. Spadek w tak krótkim okresie czasu może wynikać z kilku powodów. Sam postawiłbym na problemy ze strukturą podstron oraz ewentualną globalną zmianą w serwisie. Raczej nie jest to kwestia zgranej akcji linkbuildingowej/optymalizacyjnej konkurencji. Dla przykładu podam, że taki efekt mogła wywołać korekta linkowania wewnętrznego w sklepie internetowym. Wrzucenie w <a></a> nazwy kategorii na podstronie produktowej wzmocniłoby kategorię osłabiając jednocześnie podstrony produktowe, które mogły się pojawiać w okolicach 50 na longtailowe kombinacje głównej frazy kategorii.

Krzysztof Marzec, DevaGroup

Krzysztof Marzec

Trudno odnieść mi się do tego konkretnego przypadku, ale większość przypadków gdzie obserwowaliśmy duże zmiany pozycji i skoki dało się wytłumaczyć na dwa sposoby: pierwszy z nich to błędy optymalizacji. Google zaczynało tańczyć bo pojawiała się kopia serwisu (polecam analizę wymiaru nazwa hosta w Analytics) czy powielenie http/https. Wiele razy za zamieszanie odpowiedzialne były znikające podstrony, sypanie błędami 50x ale również trudna do wykrycia kanibalizacja słów kluczowych. Z ekstremalnych przypadków firma wyczyściła klientowi description i zaczęły się problemy. Wiemy, że description nie jest brane pod uwagę, ale może wpływać na CTR wyniku wyszukiwania i tu dopatrywaliśmy się wyjaśnienia. Odbudowa bazy uspokoiła stronę. W opisanym przypadku analizowałbym ilości zindeksowanych podstron i skupił się, które z nich tracą ruch, jaki to konkretnie segment (mobile?) i czy nie zmieniła się jakość ruchu z organica i innych źródeł.

Drugi, dużo rzadziej występujący w mojej praktyce, sposób wytłumaczenia takich zmian to zmiany dotyczące linków – znikające całe grupy katalogów lub odpięcie od zaplecz potrafiło powodować nietypowe zachowanie domeny przez wiele miesięcy. Sytuacja dla Google nie jest naturalna, bo kiedy zwykłą strona traci na raz 50 odsyłających domen? Wydaje mi się, co znajduje potwierdzenie w wielu przypadkach, że możemy spaść wtedy „pod kreskę” i to często mylone jest z czymś co wiele osób lubi nazywać „kara algorytmiczną”, a raczej jednym z typów spadków po przeliczeniu rankingu. Problem z analizą takich przypadków jest taki, że zazwyczaj następują poza nasza kontrolą ( klient przychodzi ze słabym profilem linków lub już z konkretnym problemem) a przy zwykłym czyszczeniu linków nie spotykamy się z takimi problemami. Dywersyfikacja profilu linków powinna dotyczyć strony głównej serwisu ale też podstron. Nie raz spotykałem strony linkowane wyłącznie na główną, ale zdarza się też że za wszystkie linki w raporcie Pages w Majestic, poza stroną główną, odpowiada jedno zaplecze.

Katarzyna Baranowska, Fox Strategy

Katarzyna Baranowska Fox Strategy

Obserwowałam podobną sytuację (spadki w top50, wzrosty w top10) w przypadku dwóch domen. Pierwsza z nich to e-commerce – mocno rozbudowane kategorie i wiele zbliżonych kart produktów, które generowały widoczność (obecność) w top50 dla wielu fraz. Po uporządkowaniu struktury i wprowadzeniu np. canonicali i przekierowań udało się ograniczyć nieco site tworząc zbiorcze karty dla produktów o bardzo zbliżonych parametrach.

Efekt był taki, że początkowo zmniejszyła się pula fraz dla której sklep wyświetlał się w top50 (długi ogon) ale równocześnie poprawiła się obecność w top10 i top3 (usunięcie duplikatów, przekierowania i wskazania kanoniczne dodały „mocy” pozostawionych i zoptymalizowanym kategoriom oraz zbiorczym kartom produktów).

Drugi przypadek dotyczył strony firmowej i wprowadzania nowej „szaty graficznej”. Okazało się, że oprócz kilku wizualnych poprawek i „ładniejszego” layoutu, który gwarantował responsywność, została usunięta sekcja „Aktualności” (prowadzona wcześniej w miarę systematycznie przez 3 lata). Skutkowało to właśnie odcięciem widoczności w top50 i częściowo też (5-7%) ruchu organicznego, ale przyniosło też niewielkie wzrosty widoczności w top3 i top10 (po kilka fraz).

Każdorazowo, w przypadku większych wahań bądź problemów z widocznością warto stworzyć sobie checklistę elementów, które mogły mieć wpływ na pozycje / ruch i stopniowo sprawdzać punkt po punkcie. Proponuję:

  • wyjść od analizy serwisu pod kątem błędów (mam tu na myśli sprawdzenie komend odnoszących się do indeksacji, canonicali, zweryfikowanie poprawność działania przekierowań, ustawień meta tagów, obecności fraz w treści i sprawdzenie tego, czy nie pojawiły się duplikaty, zobaczyć czy nie ma błędów 4XX i 5XX oraz jak serwis zachowuje się na mobile).
  • przeanalizować dane jakie przechowuje Google (cache, site, wersje tekstowe stron itd. – chodzi mi tutaj o sprawdzenie tego czy przypadkiem nie ma błędów / nieprawidłowości w tym jak (i czy w ogóle) roboty indeksują poszczególne podstrony).
  • idąc dalej warto przyjrzeć się linkom (przejrzeć świeży profil, rozkład anchor text, zwrócić uwagę na nowe i utracone linki a następnie zerknąć też na nowe i utracone domeny).
  • jeśli nadal nie uda się niczego znaleźć pozostaje analiza trendów dotyczących ruchu (GA), widoczności i samej konkurencji.

Edit (27.12) – nowy trop i diagnoza

Udało się znaleźć prawdopodobną przyczynę problemów. Ilona Hanzel (Takaoto) zauważyła, że po listopadowej awarii serwerów OVH pogorszyły się statystyki indeksowania – wydłużył się czas spędzany przez bota na pobieraniu strony.

czas indeksowania google search console

Teoria tłumacząca, dlaczego frazy w TOP10 i TOP3 rosną, a TOP50 spadają, jest następująca:

  • przyrost linków (który stale realizujemy) powoduje wzrost pozycji na frazy związane z ofertą firmy (strony podlinkowane ze strony głównej, a także site-wide ze stopki i menu głównego),
  • długi ogon generowany głównie przez blog spada, ponieważ artykuły na blogu są dużo słabiej podlinkowane wewnętrznie i bot rzadziej do nich zagląda.

Czas pobierania strony powoli wraca do normy – jednocześnie widać, że spadki fraz z długiego ogona zwolniły:

spadki dlugi ogon

Ciekaw jestem, czy frazy wrócą do stanu sprzed awarii. Za jakiś czas Was powiadomię o ewentualnych zmianach 🙂

Udostępnij: