W SEO pojawiło się wiele mitów i legend, które krążą pomiędzy specjalistami budząc niejednokrotnie wątpliwości i nieporozumienia. Uważam, że większość z nich jest rezultatem błędnie przeprowadzonych testów, podczas których specjalista zakłada pewną tezę i udowadnia ją dzięki wynikom, które nie są miarodajne ustalając pewne wątpliwe Zasady SEO. Wpis przedstawia 3 Zasady SEO Technicznego, którymi powinien kierować się każdy Specjalista. Zasady SEO zostały wielokrotnie potwierdzone testami, a więc są wiarygodne i można je uznać jako paradygmat SEO.

Czysty SITE to klucz do sukcesu

SITE to zbiór podstron danego serwisu, które zostały poprawnie wyrenderowane, a następnie zindeksowane przez roboty Google. W SITE powinny znajdować się tylko i wyłącznie te podstrony, które generują wartość dla użytkownika i SEO, a to implikuje konieczność ciągłej analizy zindeksowanych podstron i usuwanie tych, które są zbędne. Można jednak zadać sobie pytanie: dlaczego czysty SITE to klucz do sukcesu? Należy zrozumieć, że Google zmuszony został do ogromnego cięcia zasobów pamięci, które wykorzystuje do analizy kolejnych domen. Z tego powodu dla każdego serwisu Google wylicza Crawl Budget, a więc ilość kB, które może przeznaczyć do skanowania danej domeny w określonym przedziale czasowym. Widoczna jest więc zasada, która wskazuje: im więcej zasobów zostanie spożytkowanych na analizy bezwartościowych podstron serwisu, tym mniej zostanie na crawl tych najważniejszych.

Komenda SITE:domena?

Podczas prac nad serwisem w pierwszej kolejności należy zbadać jakie podstrony zostały zindeksowane przez roboty Google. Komenda site:domena wpisana w wyszukiwarkę Google pozwala otrzymać listę tych podstron, które aktualnie znajdują się w indeksie. Kolejnym krokiem jest ręczna weryfikacja użyteczności wskazanych podstron. W indeksie nie powinny znaleźć się adresy kierujące do podstron:

  1. O pustej zawartości,
  2. O zawartości duplikującej inną podstronę,
  3. O niewłaściwej zawartości (np.: przy Word Press często indeksują się adresy wskazujące na podstrony, na których znajduje się jedynie pojedynczy plik graficzny),
  4. O zawartości nieistotnej z perspektywy robotów Google (np.: Notki prawne, Polityki Cookies).

Wskazane podczas ręcznej adresy określone jako zbędne należy wyindeksować. W tym celu należy wykonać jeden z wskazanych kroków:

  • Wdrożenie dyrektywy NOINDEX w znacznik Meta Robot,
  • Naniesienie przekierowania 301 na inną, wartościową podstronę

Wydajność serwisu to czynnik rankingowy

W pierwszej połowie 2021 roku Google wprowadził aktualizację algorytmu, która zakłada, że większe znaczenie podczas wyliczania rankingu będzie miała wydajność serwisu. Wydajność serwisu określana została przez 3 mierniki Core Web Vitals:

  1. LCP (Largest Contentful Paint): Miernik określający przybliżony czas potrzebny na załadowanie największego elementu serwisu,
  2. FID (First Input Delay): Miernik określający przybliżony czas potrzebny na takie wyrenderowanie zasobów serwisu, aby możliwa była interakcja użytkownika,
  3. CLS (Cumulative Layout Shift): Miernik określający sumę zmian w przesunięciu.

Do oceny aktualnej sprawności serwisu wykorzystać można narzędzie od Google: Page Speed Inights. Najczęstsze błędy spotykane w wynikach analizy to:

  • Zbyt duża wielkość plików graficznych,
  • Nieoptymalny format plików graficznych,
  • Zbyt długi okres oczekiwania na odpowiedź serwera,
  • Nieprawidłowa kolejność wczytywania kluczowych zasobów,
  • Zasoby blokujące wczytywanie,
  • Struktura serwisu, która podczas wczytywania ulega przesunięciom.

Renderowanie serwisu przez roboty Google a widok użytkownika

Obraz serwisu, który widzi specjalista lub użytkownik wpisujący dany adres w wyszukiwarkę może odbiegać od tego, w jaki sposób serwis jest renderowany przez roboty Google. Może okazać się, że treść, menu, pliki graficzne widoczne podczas zwykłego korzystania z serwisu są zupełnie niewidoczne dla robotów Google. Z tego powodu należy dokładnie sprawdzić sposób renderowania kolejnych widoków podstron (strona główna, przykładowa strona kategorii nadrzędnej, kategorii podrzędnej i podstrona produktowa) przez roboty Google.

Komenda Cache:domena

Bardzo rzetelnym narzędziem pozwalającym określić w jaki sposób Google „widzi” daną podstronę jest komenda CACHE:domena wpisana w wyszukiwarkę. Po jej uruchomieniu ukazuje się graficzne przedstawienie widoku danej podstrony widzianego „oczami” Google. Dla specjalisty Technical SEO najbardziej użyteczna jest jednak wersja tekstowa wyrenderowanego obrazu. Najczęstsze błędy zaobserwowane w analizie komendą CACHE:domena są:

  • Część treści nie jest widoczna,
  • Widoczna jest treść, która na pierwszy rzut oka jest ukryta w widoku użytkownika,
  • Anchory posiadają strukturę inną niż ta widoczna w widoku użytkownika,
  • Sekcje linkowania wewnętrznego nie są widoczne.

Podsumowanie

Podczas prowadzenia działań mających na celu poprawić widoczność serwisu należy pamiętać o wskazanych w wpisie Zasadach SEO Technicznego. Przestrzeganie ich pozwoli na uzyskanie wyraźnych efektów w prowadzonych kampaniach SEO, ponieważ często brak efektów nie wynika z niskiej jakości treści, nieoptymalnego linkowania zewnętrznego, a właśnie przez błędy techniczne danego serwisu.

Kategorie: Blog o SEO