W branży SEO istnieją dwa główne podejścia do procesu pozycjonowania. Dzielimy je na White Hat SEO (WHS) oraz Black Hat SEO (BHS). Pierwsze z nich jest w pełni zgodne z Wytycznymi Google dla Webmasterów, drugie natomiast określa się mianem niewskazanego, zwłaszcza w przypadku, gdy zależy nam na długofalowym efekcie.
Działania BHS mogą doprowadzić do sankcji Google – jest to kara ręczna nałożona przez Ratera lub filtr algorytmiczny. O ile w przypadku pierwszej kary zostaniemy o niej poinformowani, jak i nawet wskazane zostanie nam jej źródło, tak w drugim przypadku nie otrzymamy oficjalnego potwierdzenia. Założenie filtra na naszą stronę może spowodować spadek ruchu i pozycji strony w wynikach wyszukiwania na konkretne wyrażenie lub na ich grupę, a nawet wszystkie wyrażenia. Stosowanie technik Black Hat może również doprowadzić do usunięcia strony z indeksu, braku indeksowania przez roboty poszczególnych podstron, a także utraty wartości PageRank.
Poniżej postaram się przestawić oraz opisać, dlaczego niektóre z działań nad stroną w procesie pozycjonowania mogą zostać odebrane jako niewskazane.
Polega na przedstawianiu innych treści, struktury czy adresów URL robotom wyszukiwarki niż te, które widzi użytkownik odwiedzający stronę. Przykładem takiego maskowania może być np. wyświetlanie użytkownikom animacji flash lub złożonej z samych obrazków, a robotom tylko treści.
Cloackingiem jest również wyświetlanie dodatkowych tekstów lub słów kluczowych w przypadku, gdy klient użytkownika przedstawia się jako robot wyszukiwarki.
Poniżej prezentujemy oficjalne materiały Google na temat maskowania, przedstawione w formie wideo prezentacji przez Matta Cuttsa:
Czyli innymi słowy „upychanie słów kluczowych”, polegające na zapełnianiu strony internetowej słowami kluczowymi w nienaturalny sposób, w celu poprawienia pozycji witryny na konkretne wyrażenia. Często pojawiają się w formie listy, wymienione po przecinku zupełnie bez związku z treścią (z reguły w stopkach, sidebarach lub innych miejscach strony). Oprócz słów kluczowych pod Keyword Stuffing kwalifikuje się także: umieszczanie bloku tekstu z listami miast i województw, wypisywanie listy numerów bez związku z treścią oraz częste występowanie tych samych słów lub wyrażeń w tekście.
Thin content to głównie sztucznie generowane strony bez wartości dla użytkownika, które nienaturalnie zwiększają site domeny, czyli liczbę aktualnie zaindeksowanych stron przez robota wyszukiwarki. Takie strony często zawierają bardzo dużo słów kluczowych, ale nie posiadają wartościowych, pełnych tekstów (np. na stronie znajduje się jedno zdanie, a w stopce lub sidebarze wymienione są po przecinku słowa kluczowe) lub są one skopiowane z innego serwisu, a więc są bez wartości dla użytkownika. Wszystkie strony, które nie posiadają żadnej wartości, mogą zostać odebrane jako próba manipulacji rankingiem.
Teksty powinny nieść jak największą wartość dla użytkownika, muszą być eksperckie i wyczerpywać tematykę oraz zawierać naturalne wystąpienia wyrażeń kluczowych.
Treści wygenerowane przez narzędzie są nienaturalne i mocno nasycone słowami kluczowymi, a ich głównym celem jest wpływ na ranking. Algorytmy Google są coraz bardziej precyzyjne, dlatego nauczyły się znajdować schematy i rozpoznawać takie treści. Poniżej przykłady:
Źródło cytatu: Search Console – Pomoc: Treści generowane automatycznie
Ukrywanie linków, treści lub innych elementów w kodzie witryny w celu manipulowania rankingiem jest odbierane jako działania BHS. Przez ukrywanie rozumie się:
Choć w Polsce systemy wymiany linków są jeszcze popularne, ich stosowanie za granicą jest już praktycznie zerowe i bardzo ryzykowne. Przekonali się o tym nasi zachodni sąsiedzi, gdy wszystkie strony bazujące na SWL otrzymały sankcje, a wraz z nimi serwisy oferujące systemy wymiany oraz oferowane przez nich zaplecza.
Google do kategoryzacji linków pochodzących z systemów wymiany podchodzi bardzo ogólnie, ponieważ za takie odnośniki uważa wszystkie, które mogą wpływać na pozycję w wynikach oraz PageRank domeny. Do samego systemu wymiany linków zaliczamy:
Choć samo Google otwarcie zachęca do używania przekierowań, należy jednak być ostrożnym i stosować je tylko w uzasadnionych przypadkach, takich jak zmiana domeny, zmiana adresu URL podstrony czy łączenie wielu stron w jedną.
Stosowanie przekierowań, które mogą wpłynąć na ranking strony, zostanie odebrane negatywnie. Mowa tutaj o przypadku, gdy robot pod żądanym adresem widzi zawartość strony, a użytkownik zostaje przekierowany na zupełnie inną podstronę.
Za przekierowanie niejawne uważane jest również stosowanie takiego przekierowania dla użytkowników urządzeń mobilnych, gdzie w przeciwieństwie do użytkowników wersji desktop, występuje przejście do domeny zawierającej spam.
Inaczej strony przejściowe, czyli stworzone w celu zajmowania wysokich pozycji w wynikach wyszukiwania i prowadzące do zupełnie innych stron. Tego typu witryn może występować więcej, mogą one prowadzić do stron pośrednich, które nie są tak przydatne jak strona docelowa.
Przykładami stron przejściowych są:
Jeśli oprogramowanie strony działa w niewłaściwy sposób, przez który rozumie się manipulowanie jej zawartością, pobieranie plików na komputer użytkownika i ich uruchamianie bez jego wiedzy – tego typu działania będą odbierane jako niezgodne z wytycznymi Google dla Webmasterów. W przypadku ich wykrycia naszym oczom pojawi się następujący komunikat:
Poniżej lista oficjalnych przykładów z pomocy Google:
Jest to jeden z nowszych punktów w wytycznych, ponieważ same znaczniki zyskały większą popularność stosunkowo niedawno. Znaczniki te mają na celu ułatwić robotom rozpoznanie konkretnych elementów strony poprzez umieszczenie odpowiednich znaczników na poszczególnych kontenerach. Przez nadużywanie Google ma na myśli:
Google nie przewiduje wykonywania zautomatyzowanych zapytań, czyli przesyłania zapytań bez zgody. Wysyłanie takich zapytań jest niezgodne, ponieważ absorbuje system i wykonywane jest przez zewnętrzne oprogramowanie, a nie silnik wyszukiwarki.
Do grupy tych zapytań należą wszystkie zapytania, które na celu mają weryfikację, jak dana strona lub witryna wypada w wynikach wyszukiwania, czyli: sztuczne pingowanie, wymuszenia zaindeksowania strony przez robota czy nienaturalna próba podbicia współczynnika CTR.
Jest to element skupiający kilka czynności z powyższej listy. Polega na wstrzyknięciu szkodliwego oprogramowania przez luki bezpieczeństwa w polarnych systemach CMS, które tworzy sztuczne strony przekierowane na inny serwis.
Google stara się przeciwdziałać tego typu atakom, dlatego od niedawna – jeśli Twoja domena jest zweryfikowana w narzędziu Search Console i korzystasz z jednego z popularnych CMSów np. WordPress lub Joomla – otrzymasz wiadomość o konieczności aktualizacji.
Jedną z oficjalnych wskazówek od Google jest moderowanie działań użytkowników, a szczególnie treści przez nich umieszczanych. Mowa tutaj w szczególności o wpisach na forach oraz komentarzach, które mogą zawierać linki z zakotwiczeniem na frazę do innych stron. Pod tym adresem dostępnych jest kilka porad na temat nadużywania publicznych części swojej witryny. Zawartość jest również przydatna w celu podjęcia działań po otrzymaniu kary ręcznej za spam we witrynie.
Odpowiedź na to pytanie nie jest jednoznaczna, ponieważ do każdego przypadku należy podejść indywidualnie. Na pewno jest to łatwiejsze, gdy chodzi o zmiany związane ze stroną oraz o otrzymanie kary ręcznej. To jasny sygnał, co jest niezgodne z wytycznymi na stronie. Na wdrożenie zmian poświęcimy kilka dni, a po pozytywnym rozpatrzeniu otrzymamy również wiadomość zwrotną. W przypadku negatywnej odpowiedzi należy wprowadzać zmiany do skutku.
Sytuacja wygląda gorzej w razie otrzymania filtru algorytmicznego – nigdy nie mamy pewności, że taki został nałożony ani z jakiego powodu. Pozostaje nam jedynie analiza poprzednich działań oraz osiąganych aktualnie pozycji przez stronę i ocena, które z nich mogły wpłynąć negatywnie. W konsekwencji, jeśli mamy taką możliwość, wszystkie działania uznane za nienaturalne powinny zostać usunięte lub powinno się uzyskać możliwe jak najwięcej naturalnych czynników, np. naturalne udostępnienia czy ruch z social media, aby „zatrzeć złe ślady”.
Pamiętaj jednak, że jeśli Twoja strona otrzymała filtr, wyjście z niego będzie bardzo czasochłonne i będzie wymagało dużo pracy. Dlatego czasami ostatnią deską ratunku i możliwością uzyskania szybszego efektu jest zmiana domeny z odcięciem się od historii poprzedniej – ponowne rozpoczęcie wszystkich działań. Jednak w przypadku tej decyzji należy dobrze skalkulować, co jest bardziej opłacalne.
Odpowiedzi na to pytanie z pewnością jest wiele, jednak w mojej ocenie głównie z powodów:
Głównym argumentem, który przemawia za White Hat SEO, jest długofalowy efekt. Ryzyko nagłej straty osiągniętych przez nas efektów tymi metodami jest bardzo niskie. Miejmy jednak na uwadze, że Google z każdą aktualizacją algorytmu dąży do wyeliminowania procesu pozycjonowania, dlatego stosowanie BHS może wkrótce nie przynieść nawet krótkiego, początkowego efektu.