Za co nakładane są kary przez algorytm Panda

Za co nakładane są kary przez algorytm Panda

1 1499

Panda Update w ostatnim czasie wprowadził duże zmiany w wynikach wyszukiwania. Jedne strony awansowały, drugie zaś straciły pozycje na rzecz konkurencji. Co Google chce osiągnąć dzięki takim działaniom? Jakie zmiany wprowadza do algorytmu Google i czego oczekuje od użytkowników Internetu?

Wszystko zaczęło się od pewnego inżyniera Googla Navneet Panda (stąd nazwa), który stworzył algorytm pozwalający wyszukiwarce lepiej analizować strony pod względem jakości. Cały czas powstają coraz to nowsze ulepszenia algorytmu. Niżej przedstawiona jest lista wypuszczonych do dnia dzisiejszego aktualizacji:

Panda Update 1.0: Luty 24, 2011

Namierzenie treści z tzw „farm sites”, które posiada ogromna ilość stron niskiej jakości

Panda Update 2.0: Kwiecień 11, 2011

Wprowadzenie rozróżnień językowych dla języka angielskiego

Panda Update 2.1: Maj 10, 2011 / 2.2 Lipiec 16, 2011

Zostały wprowadzone pierwsze poważne zmiany. Cel – pozbycie się problemu związanego ze stronami pobierającymi automatycznie content z innych źródeł. Nie był jednak w 100% skuteczny.

Panda Update 2.3: Lipiec 23, 2011

Wprowadzenie nowych czynników wpływających na odróżnienie jakościowych stron od spamu.

Panda Update 2.4: Sierpień 12, 2011

Usprawnienie algorytmu, który odpowiedzialny jest za wyszukiwanie w różnych językach

Panda Update 2.5: Wrzesień 28, 2011

Wprowadzenie jeszcze większych kryteriów do oceny jakości contentu

Panda Update 3.1 : Listopad 18, 2011

Zmiana wpłynęła na mniej niż 1% wszystkich wyszukiwań

Panda Update 3.2 : ~Styczeń 18, 2012

Zmiany w wyszukiwaniu obrazków (brane jest również pod uwagę źródło). Algorytm dużo lepiej radzi sobie z odrzucaniem spamowych obrazków.

Wyniki z Google Analytics w czasie wprowadzania kolejnych update-ów na przykładzie strony SEOMoz

Dzięki wszelkiego rodzaju testom inżynierom Google udało się osiągnąć taki poziom algorytmu, który dzięki czynnikom występującym w Internecie pozwala oddzielić dobre strony od tych złych. O jakich czynnikach mowa? Większość z nich można w łatwy sposób kontrolować w narzędziach Google analytics. Czas spędzony na witrynie, współczynnik odrzuceń, browse rate, jakość współczynnika CTR z SERP oraz jakość użytkowników, którzy wchodzą na daną stronę (także biorąc pod uwagę liczbę wejść direct). A więc jak stawić czoła tym wymaganiom? Co zrobić by wprowadzenie kolejnych upadatów nie miało negatywnego wpływu na pozycje witryny lub by Google uznał stronę za wartościową?

Zmiany On – site

Głównymi aspektem, jaki trzeba wziąć pod uwagę jest na pewno praca na witrynie (on-site). I nie chodzi tutaj o zwiększenie zagęszczenia słowami kluczowymi czy dodanie jak największej liczby artykułów, ale o to aby zadbać o ich jakość.

Czego nie robić:

  • Mała liczba oryginalnego contentu na stronie
  • Wysoki procent zduplikowanej treści w obrębie strony (np. używanie dużej ilości tagów – zaleca się już używanie noindex lub kanonikalizację dla tagów)
  • Słaba jakość treści na stronie ( weryfikowana przez współczynnik odrzuceń, opinią na social media itp. )
  • Duża liczba nietematycznych reklam
  • Niedopasowanie mata tagów, nagłówków lub tagów do tematyki strony
  • Nienaturalne nadużywanie słów kluczowych
  • Niechlujna, niesformatowana, nie posiadająca zdjęć lub video treść
  • Treść generowana automatycznie
  • Strony nie zawierające żadnego lub znikomą ilość treści

Sposoby na usunięcie stron z duplicate content:

  • – Strona 404 – najprostsza metoda. Sprowadza się do usunięcia strony i zastąpienia jej taką, która zwraca błąd 404
  • – Przekierowanie 301 – przekierowanie permanentne danej strony (ze zduplikowaną treścią) na inną. Z perspektywy SEO także linki dochodzące na stronę zostaną przetransferowane na drugą.
  • Robots.txt – zablokowanie danych katalogów lub podstron dzięki plikowi interpretowanemu przez robota Google.

User agent:*
Disallow: /strona1.html
Disallow: /katalog/

  • – Meta robots – użycie znaczników na stronie czytanych przez robota na stronach w których chcemy zablokować indeksowanie

<html>
<head>
<title>…</title>
<meta name=”robots” content=”noindex, nofollow”>
</head>

  • – Kanonikalizacja – więcej informacji o kanonikalizacji
  • – Google Webmaster Tools – użycie narzędzia dla webmasterów

    Konfiguracja witryny -> Dostęp dla robotów -> Usuwanie URL-i

Linki

„Zwykłe” linki dalej mają swoje miejsce w czasie budowania struktury linków jednak coraz większą rolę odgrywały będą linki, których Twoja konkurencja nie będzie mogła zdobyć.

Czego nie robić:

  • Niska lub zerowa jakość linków przychodzących
  • Używania tego samego anchora do linków
  • Używanie systemów wymiany linków
  • Linkowanie z nietematycznych postów / stron

Jeśli Twoja strona została już potraktowana przez algorytm Panda i pozycje zaczęły drastycznie spadać przeanalizuj swoją stronę i sprawdź, jak dużo czynników podanych wyżej stosujesz. Nie ma wątpliwości, że inne czynniki też wchodzą w grę, jednak moim zdaniem właśnie te odgrywają największą rolę przy ocenie strony przez nowy algorytm Googla. Oczywiście, ta taktyka nie tylko pomoże w wynikach wyszukiwania, ale sprawi, że strona będzie lepszym źródłem informacji, co w dużym stopniu wpływa na sprowadzenie na nią ruchu.

1 KOMENTARZ

Skomentuj