Pod koniec sierpnia Google wprowadził nowy algorytm Helpful Content, który ma na celu walkę z clickbaitem i poprawę trafności wyników wyszukiwania. Co to oznacza dla specjalistów SEO?
Czym jest algorytm Helpful Content
W skrócie – Google chce karać tych, którzy piszą dla Google, a nie dla człowieka. Z założenia ukarane mają zostać te domeny, które publikują treści nieprzydatne.
Algorytm zaczął być wdrażany dla języka angielskiego 25.08.2022 r., a cały proces zakończono 9 września 2022 r. Spływają już do nas informacje od zagranicznych specjalistów, że są widoczne pierwsze jego efekty. Wpływ algorytmu na widoczność zgodnie z zapowiedziami o wpływie domenowym bywa spektakularny, co skutkuje utratą nawet 90% ruchu w przypadku niektórych anglojęzycznych domen. Pikanterii dodaje fakt, że 12.09 pojawiła się zapowiedź aktualizacji rdzenia algorytmu, która również ma potrwać około dwóch tygodni.
Oto, co trzeba wiedzieć:
Aktualizacja jest procesem maszynowym, a nie ręcznym działaniem.
Wdrożenie aktualizacji może potrwać nawet kilka tygodni.
Sygnał o nieprzydatności jest jednym z wielu i wcale nie oznacza, że wszystkie strony niskiej jakości nagle stracą widoczność.
Nie wiemy, jaki dokładnie będzie impact i czy w ogóle się pojawi.
Ocena jest prowadzona domenowo, a nie według sekcji serwisu.
Nie znamy harmonogramu wdrożeń dla pozostałych języków, jest mowa o „przyszłości”. Czyli czekamy na wnioski ze świata 😊
Czy da się uchronić przed tym algorytmem?
Jak powinna być stworzona strona, aby rating nie został obniżony? Tak jak zawsze Google nie mówi dokładnie, czego dotyczy algorytm, tylko podaje całą masę dobrych praktyk. Wskazówki nie są szczególnie odkrywcze.
Strona dla człowieka, a nie dla bota. Content ma być ludzki, a optymalizacja SEO ma ułatwiać robotowi Google proces skanowania i pomóc w maszynowym rozumieniu strony.
Strona powinna być szybka, responsywna.
Content musi być przydatny, użyteczny i wiarygodny (wysoki EAT, szczególnie w tematach YMYL).
Zakaz publikacji fake newsów lub informacji niepotwierdzonych, np. pisanie o premierze filmu, która nie została jeszcze oficjalnie ogłoszona.
Typ strony dopasowany do oczekiwań użytkownika. Wszędzie tam, gdzie na siłę pozycjonowaliśmy inny typ podstrony niż wynikający z zapytania (np. produkt w zapytaniu czysto informacyjnym), jest duże ryzyko spadku.
Pamiętajcie, że zbieranie danych potrzebnych do analizy jakościowej serwisu (zapewne związane jest to z zachowaniem ludzi) potrzebuje czasu. Google dodatkowo wspomniał w komunikatach o wpływie sitewide, a co za tym idzie, odzyskanie pozycji nie będzie możliwe w krótkim czasie i wymagać będzie tygodni lub nawet miesięcy.
Informacje praktyczne – tego w newsach nie wyczytasz
Próby matematycznej analizy algorytmów od dłuższego czasu nie przynoszą skutku, nic z nich nie wynika, zrezygnowali z tego nawet giganci, tacy jak Senuto czy Semrush, a wszelkie informacje sprowadzają się do ciągłego powielania dobrych praktyk. Algorytm jest zbyt zaawansowany, aby tego typu analiza dała sensowne wnioski, zbyt dużo czynników należałoby zweryfikować, tym bardziej że nie ma szans wskazać ich w prosty sposób np. crawlerem SEO.
Światło na temat mogą rzucać wytyczne dla raterów Google, których praca służy jako podwaliny do zmian w wyszukiwarce. Jest to też materiał szkoleniowy algorytmów. Dokument został zaktualizowany pod koniec lipca bieżącego roku. Najważniejsze, co w nim zaktualizowano:
Sekcja dotycząca YMYL – wskazano, aby skupić się na tematach, które wymagają wysokiego poziomu dokładności i tym samym zapobiec szkodom.
Sekcje low & lowest quality pages – aby podkreślić, że rodzaj i poziom EAT zależy od przeznaczenia strony oraz że strony niskiej jakości i szkodliwe mogą występować w każdym typie witryny.
Best practises
Jak można przeprowadzić diagnostykę użyteczności strony? Jest wiele sposobów. Na początek odpowiedz sobie na te pytania:
Czy współczynnik odrzuceń na stronie nie jest zbyt wysoki, co świadczy o porzucaniu interakcji przez większość użytkowników?
Czy średni czas pobytu na stronie (dwell time) nie jest krótszy niż czas potrzebny do przeczytania przynajmniej połowy artykułu?
Jeśli masz skonfigurowane dodatkowe eventy w GA, np. scroll, sprawdź, czy faktycznie ludzie podejmują interakcję ze stroną.
Sprawdź, czy ludzie przechodzą na dalsze podstrony, np. produkty z kategorii w sklepie.
Jeśli to sklep lub portal bazowiedzowy (duży site), sprawdź, ile podstron jest wyświetlanych na sesję. Jeśli mniej niż 2-3, to może świadczyć o braku zainteresowania.
Czy strona ma sekcję baza wiedzy lub blog? Jeśli tak, to czy widnieje w jakimkolwiek Direct Answer? One są potwierdzeniem przydatności treści i eksperckości strony w oczach Google.
Czy w artykułach znajduje się realna odpowiedź na zapytanie usera, a nie spekulacje i jej ekspozycja w treści i strukturze strony (wysokość, nagłówki, widoczność itp.)?
Czy na stronie jest user-generated content? Sprawdź głównie recenzje i komentarze (na produktach i blogach). Czy są naturalne, opisowe i moderowane? Dodatkowym atutem będzie poparcie zdjęciami własnymi użytkowników.
Czy wykorzystuję dane strukturalne Review i AggregateRating w recenzjach i opiniach, a także dane strukturalne pasujące do profilu strony internetowej, np. JobPosting dla ofert pracy?
Czy strona jest zaufana na pierwszy rzut oka (kwestie związane z EAT), czy przekazane informacje są łatwe do podważenia? Czy na blogu jest wskazany autor treści?
Czy strona posiada linki z innych tematycznie powiązanych, autorytarnych źródeł?
Czy w internecie pojawiają się wzmianki o portalu, np. w formie artykułów gościnnych, rozmów na forach?