Ziel des Penguins Updates

Durch die Maßnahmen des Penguin Updates, soll die Qualität von Webseiten mehr im Vordergrund stehen. “Gute“ Seiten sollen dadurch höchstmöglich gerankt werden, damit die Nutzer von Google schnellstmöglich die passenden Informationen zu ihren Suchanfragen bekommen. Zudem will man damit sogenannten Webspam verhindern.

Unter Webspam versteht man Methoden die angewendet werden, um Personen vorsätzlich auf bestimmte Webseite zu locken. Zu diesen Methoden gehören zum Beispiel: Linkbuilding, Cloaking und Keyword Stuffing. Jedoch wurden bereits viele dieser Methoden von dem Penguin Update so gut wie ausgelöscht.

Linkbuilding: Hierbei versucht man möglichst viele Verweise anderer Seiten auf seine eigene zu generieren, mittlerweile ist jedoch die Anzahl gar nicht so wichtig sondern vielmehr die Qualität der Links.

Cloaking: Von Cloaking spricht man, wenn bei Seiten Inhalte vermehrt aus Bildern, Videos oder auch anderen Inhalten bestehen, da beim Crawlen Bildmaterialien nicht so gut erkannt werden können wie zum Beispiel Inhalte in Textform.

Keyword Stuffing: Metadaten, Linktexte und Textformen können vermehrt mit Keywords ausgestopft werden.

So hat man versucht Keywords einzubringen, die zwar nicht zu der eigenen Seite passen, jedoch einen hohen Traffic erzeugt haben. Allerdings ist diese Methode durch die Algorithmen so gut wie ausgestorben.

Folgen von Webspam

Wenn Google Webspam erkennt wird dieser abgestraft, dieses abstrafen wird auch als „Penalty“ bezeichnet. Dabei gibt es zwei Möglichkeiten, zum einen durch eine Abstufung die durch einen Algorithmus erfolg. Außerdem gibt es noch die Möglichkeit der manuellen Abstufung durch einen Mitarbeiter/in. Die Abstufungen können unterschiedlich ausfallen, meistens werden die Seiten oder auch nur einzelne href="https://www.gruenderszene.de/lexikon/begriffe/uniform-resource-locator-url">URL’s vom Ranking heruntergestuft.

Penguin Update 4.0 ist das neuste Update und wurde am 23.September 2016 aktiviert.

Die größte Änderungen hierbei ist, dass Google schneller Probleme erkennen kann und somit auch direkt darauf eingeht. Das führt dazu, dass sie jetzt nach jedem Crawl und indexieren erneut aktualisieren und somit handeln können. Penaltys werden somit sofort erkannt und können behoben werden.