Skip to main content

Filtry algorytmiczne Google

Zdarza się, że długotrwałe i mozolne działania SEO nie przynoszą efektów, których się spodziewaliśmy – zwłaszcza, jeśli prowadziliśmy je we własnym zakresie, bez pomocy doświadczonej i renomowanej agencji SEO. Nieodpowiedzialne, zbyt szybkie zdobywanie linków zewnętrznych może doprowadzić do wyraźnych spadków pozycji w wyszukiwarce Google.

Te niepokojące sytuacje mogą świadczyć, że nasza strona została objęta filtrem algorytmicznym, rodzajem nakładanej automatycznie przez algorytmy Google kary. Są one nie tylko trudne do usunięcia, ale nawet trudne do wykrycia. Podjąć działania zmierzające do usunięcia kar algorytmicznych może tylko dobra agencja SEO, naprawiając przy tym błędy, które w pozycjonowaniu strony popełniono uprzednio. Warto jednak wiedzieć także, jakie są rodzaje filtrów i przyczyny nakładania kar algorytmicznych – można w ten sposób uniknąć ich zawczasu.

 

„Zwierzęta Google” a filtry algorytmiczne

Zmiany w algorytmach Google pojawiają się obecnie o wiele częściej, niż jeszcze kilka lat temu – co najmniej kila razy w roku. Są też mniejsze i mniej szczegółowo prezentowane przez pracowników Google, co utrudnia dostosowanie się do nich przez wdrożenie odpowiednich zmian na stronie. Podstawowe zasady, którymi należy kierować się w celu uniknięcia kar algorytmicznych, są jednak podobne, co w przypadku dużych i szeroko znanych aktualizacji algorytmu.

Należały do nich aktualizacje oznaczone nazwami zwierząt – Panda, Penguin (Pingwin) i Hummingbird (Koliber). Powstały one w wielu wersjach, a zasady ich działania nadal są rozwijane. Update „Panda” miał na celu wyeliminowanie z wyników wyszukiwania stron o niskiej jakości treści oraz eliminację thin content (strony z małą ilością unikalnych treści). Kolejna aktualizacja, Penguin, w większym stopniu naraża działania SEO na kary algorytmiczne. Koncentrowała się ona na linkach zewnętrznych, ograniczając ich znaczenie – duża liczba słabej jakości linków zewnętrznych przestała być istotna, a znaczenie zyskał naturalny profil linków, w którym ważne są też linki wysokiej jakości i ich stopniowy, powolny przyrost. Trudna stała się więc manipulacja wynikami wyszukiwania za pomocą linków.

Od 2016 roku Penguin jest częścią głównego algorytmu Google, co oznacza, że działa on w czasie rzeczywistym, a nie jak dotąd w określonych wycinkach czasu. Właśnie nieprawidłowy profil linków i ich zbyt szybki przyrost jest najważniejszym powodem, dla którego nakładane są kary algorytmiczne. Narażają na nie jednak również inne przypadki łamania zasad dla webmasterów, które ogłosiło Google. Zakazane techniki Black Hat SEO narażają natomiast na filtry ręczne, a nawet całkowite usunięcie witryny z wyników wyszukiwania. Wytyczne Google dla webmasterów przekładają się więc bezpośrednio na pozycje w wyszukiwarce.

Filtry algorytmiczne Google

Filtry algorytmiczne a filtry nakładane ręcznie

Kary nakładane przez Google wiążą się ze złamaniem zasad Google dla webmasterów. Istnieją przy tym dwa główne rodzaje filtrów wyszukiwarki Google: filtry nakładane automatycznie (przez algorytm) i filtry nakładane ręcznie. Tylko w drugim przypadku filtr może prowadzić do całkowitego usunięcia strony z wyników wyszukiwania (ban w Google) -filtry algorytmiczne prowadzą jedynie do spadków pozycji w Google. Wiąże się z tym również fakt, że filtry algorytmu są trudne do wykrycia. Łatwo pomylić je z naturalnymi wahaniami pozycji w wyszukiwarce oraz ze skutkami innych błędów w pozycjonowaniu strony.

Google nie przedstawia właścicielom stron żadnych informacji, że na witrynę nałożono filtr algorytmiczny, w związku z czym to, czy został on zastosowany, trzeba ustalić samodzielnie. Inaczej jest z filtrami ręcznymi – informacja o ręcznych działaniach podjętych w stosunku do strony jest widoczna bezpośrednio w Google Search Console. Filtry ręczne nakładają przy tym nie algorytmy, ale pracownicy Google. Mimo że dotyczą o wiele poważniejszych przewinień względem zasad Google, filtry ręczne są więc łatwiejsze do wykrycia, a przez to często łatwiejsze do usunięcia. Filtry Google podzielić można też na częściowe i całkowite. Filtr całkowity obniża całościowo pozycję strony na wszystkie słowa kluczowe, jest więc bardziej dotkliwy, ale łatwiejszy do wykrycia. Filtr częściowy obniża jedynie pozycje poszczególnych podstron w Google na określone frazy.

Kara algorytmiczna przyczynia się oczywiście do znacznego spadku ruchu pochodzącego z wyszukiwarki Google. Spadek ruchu przekłada się bezpośrednio na zmniejszenie sprzedaży i zmniejszenie świadomości marki wśród użytkowników. Wszelkie działania SEO muszą być więc prowadzone ostrożnie, istotne jest zwłaszcza odpowiednie tempo zdobywania linków. Samodzielne zdobywanie linków niskiej wartości, pochodzących z podejrzanych źródeł, bardzo często skutkuje karami algorytmicznymi.

 

Filtry algorytmiczne Google

Po czym poznać, że na stronę nałożono karę algorytmiczną?

Podejrzenie nałożenia filtra algorytmicznego powinny wzbudzić nagłe i niespodziewane spadki pozycji strony. Działanie linków zewnętrznych ujawnia się po pewnym czasie, około miesiąca od ich zdobycia – tak pozytywne, jak i negatywne skutki pozyskiwania linków zewnętrznych są więc znacznie opóźnione. Jest wiele innych możliwych przyczyn spadków pozycji strony w Google, te, których przyczyną jest filtr algorytmiczny są jednak zazwyczaj dość wyraziste. Można je zaobserwować jako wyraźne „przycięcia” ruchu na stronie na wykresach w Google Analytics i Google Search Console. Jeśli takie nagłe spadki ruchu można powiązać ze zdobywaniem linków w niedawnej przeszłości, istnieją już mocne podstawy do przypuszczenia, że mamy do czynienia z karą algorytmiczną.

W Google Search Console i w Google Analytics monitoruje się na bieżąco wyszukiwanie na konkretne frazy. Już nagły spadek pozycji na pojedynczą frazę może być oznaką nałożenia filtra algorytmicznego. Zakładka „Skuteczność” Google Search Console pozwala też na obserwowanie wielu fraz w długoterminowej perspektywie czasowej. Na ustalenie daty spadków, która ma duże znaczenie w analizie przyczyn wystąpienia filtra, pozwala też analiza ruchu z wyników organicznych w Google Analytics. Należy również sprawdzać na bieżąco informacje o zachodzących w algorytmach zmianach. Google ujawnia jednak tylko drobną część tego rodzaju informacji, wiadomości pochodzące ze źródeł zewnętrznych nie zawsze są natomiast wiarygodne i niekiedy mają charakter przypuszczeń i spekulacji.

Istnieją jednak również inne przyczyny filtrów algorytmicznych, niż błędne linkowanie. Do windeksowania podstron mogą przyczynić się kopie tekstów pojawiające się w witrynie, zwłaszcza kopie opisów produktów w sklepach internetowych. Do filtrów algorytmicznych prowadzi też często udział w programach partnerskich i systemach wymiany linków (SWL), nawet jeśli uprzednio działały one dobrze, wywierając pozytywny wpływ na pozycje strony. Nagłe spadki pozycji mogą wiązać się też nie z filtrami, ale z dotyczącymi wszystkich stron aktualizacjami algorytmu oraz z pojawiającymi się błędami technicznymi na stronie. Dotyczą one np. obniżenia prędkości hostingu i przerw w jego działaniu lub błędów w działaniu skryptów i wtyczek.

Skuteczne pozycjonowanie strony internetowej w wyszukiwarce Google

 

Jak pozbyć się kary algorytmicznej nałożonej przez Google?

Nałożona przez Google kara algorytmiczna może być zdjęta, jest to jednak trudny proces, który przeprowadzić może tylko dobra agencja SEONa efekty trzeba przy tym czekać stosunkowo długo, zazwyczaj kilka miesięcy. W związku z faktem, że główną przyczyną filtrów są niewłaściwe linki zewnętrzne, działania zmierzające do usunięcia filtrów algorytmicznych wiążą się głównie z poprawą profilu linkowania.

Największe znaczenie ma więc budowanie naturalnej sieci linków, przydatna jest także dbałość o ruch pochodzący z mediów społecznościowych. W miarę możliwości należy także usunąć szkodliwe linki – ocena tego, które z linków są szkodliwe, a które pożyteczne, jest jednak trudna, usunięcie wszystkich linków może więc tylko pogorszyć sytuację. Wiele czasu może zająć też zdjęcie filtrów algorytmicznych, które nałożono z innych powodów, niż linki zewnętrzne. Usunięcie duplikacji treści oraz keyword stuffing (upychania słów kluczowych w tekstach zamieszczonych na stronie), które są niezgodne z wymaganiami Google dotyczącymi jakości, może oznaczać konieczność całościowej przebudowy treści witryny.

Oceń post

Leave a Reply

Close Menu