Posiadasz Hubspot CMS? Jest to rozwi膮zanie bez dw贸ch zda艅 posiadaj膮ce swoje zalety. Jednak ma te偶 swoje ograniczenia, o kt贸rych warto pami臋ta膰 przyst臋puj膮c do dzia艂a艅 SEO – pocz膮wszy od audytu.

O Hubspot CMS s艂贸w par臋

Hubspot to dostawca rozwi膮za艅 z zakresu marketing automation oraz szerzej – zarz膮dzania i optymalizacji sprzeda偶y online. Hubspot oferuje swoim klientom tak偶e w艂asny CMS (ang. content management system). Umo偶liwia on sprawne zarz膮dzanie landingami, automatyzacj膮 kampanii, optymalizacj膮 formularzy, element贸w CTA (ang. call to action) itp.

Parametry, przekierowania, dodatkowe skrypty

Jednak przy okazji Hubspot CMS tworzy te偶 ogromn膮 liczb臋 adres贸w URL w obr臋bie domeny. Jest to nast臋pstwem mierzenia przep艂yw贸w mi臋dzy poszczeg贸lnymi stronami, mierzenia mikrokonwersji (b臋d膮cych triggerem wrzucenia danego u偶ytkownika do wybranego scenariusza marketing automation), test贸w por贸wnawczych, przekierowa艅 itd., kt贸re wi膮偶膮 si臋 z doklejaniem do statycznego URL du偶ej liczby parametr贸w.

Opcja blokowania element贸w Hubspota w crawlu

Rodzi to problemy na etapie kompleksowej analizy serwisu. Trudno jest oceni膰 w艂a艣ciwe proporcje czynnik贸w on-page, gdy dany adres URL posiada spor膮 liczb臋 wersji alternatywnych. Z rozwi膮zaniem nadci膮ga Sitebulb – crawler desktopowy stanowi膮cy ciekaw膮 alternatyw臋 dla popularnego Screaming Froga. Ju偶 na etapie konfiguracji audytu robot weryfikuje, na jakim silniku stoi strona. Je艣li wykryje rozwi膮zania Hubspot, oferuje przej艣cie do „Hubspot mode”, kt贸ry pozwala wygodnie pomin膮膰 elementy tworzone na potrzeby systemu.

Opr贸cz zablokowania element贸w Hubspota mo偶na zablokowa膰 r贸wnie偶 inne zasoby zwi膮zane z wykorzystaniem zewn臋trznych skrypt贸w reklamowych itp.

hubspot mode sitebulb

Dzi臋ki temu crawl przebiega sprawniej i pozwala skupi膰 si臋 na analizie w艂a艣ciwej architektury strony.

Nie ograniczaj si臋 do uproszczonego crawla

Warto jednak pami臋ta膰, 偶e takie rozwi膮zanie te偶 ma swoje minusy. Docelowo przy pe艂nej analizie powinno nam zale偶e膰 na zbadaniu strony w takiej wersji, w jakiej otrzymuje j膮 do dyspozycji u偶ytkownik i Googlebot. Zewn臋trzne skrypty 艂adowane synchronicznie, rozmieszczone czasem kilkukrotnie w obr臋bie jednego dokumentu, maj膮 istotny wp艂yw na szybko艣膰 艂adowania strony.

Zarz膮dzanie architektur膮 informacji r贸wnie偶 powinno uwzgl臋dnia膰 obs艂ug臋 parametr贸w w adresach URL. Dzia艂ania SEO dla serwis贸w bogatych w tego typu rozwi膮zania powinny zak艂ada膰:

  • w艂a艣ciwe wykorzystanie link贸w kanonicznych w procesie wskazywania statycznej strony, kt贸ra ma by膰 indeksowana w Google,
  • utrzymanie higieny w pliku sitemap.xml (powinny znajdowa膰 si臋 tam tylko kanoniczne adresy URL odpowiadaj膮ce statusem 200)
  • wskazanie Google parametr贸w, kt贸re istotnie wp艂ywaj膮 na tre艣膰 strony (widok Parametry w URL-ach w Google Search Console)
  • optymalizacj臋 crawl budget (np. poprzez ograniczenie dost臋pu do stron nieistotnych, je艣li znajduj膮 si臋 one w okre艣lonym katalogu).