Algorithmische oder manuelle Penaltys?

Vor kurzem stellte Matt Cutts einige Irrtümer, die SEO betreffend richtig. In seinem Beitrag erklärte er, Google entferne Websites sowohl algorithmisch als auch manuell aus dem Index (Penalty), sofern Spam oder andere Probleme, wie z.B. Pornografie auf Nicht-Porno-Seiten, festgestellt würden.

 

Diese Daten würden aber auch dazu benutzt, um die Algorithmen zu verbessern. Googles Informatiker schrieben Classifier für Spam-Inhalte, überflüssige Keywords, Cloaking und irreführende JavaScript-Weiterleitungen.

Kein permanenter Ausschluss

Jetzt antwortete Matt Cutts in einer Video-Botschaft auf die Fragen besorgter Webmaster, ob es diesbezüglich zu einem permanenten Ausschluss kommen könne.

Ist eine Website aufgrund eines Algorithmus’ ausgeschlossen, sollte diese nach den Änderungen und erneutem Crawlen wieder im Index auftauchen. Bei manuellem Ausschluss wird in der Regel eine zeitliche Begrenzung festgelegt. Wird z.B. verborgener Text gefunden, wird ein Penalty für verborgenen Text festgesetzt (z.B. 30 Tage). Danach laufe alles wieder normal.

Antrag auf erneute Prüfung

Doch bei schweren Vergehen wie Cloaking dauert der Penalty länger, läuft aber auch irgendwann ab. Webmaster können einen Antrag auf erneute Prüfung stellen, um den Vorgang zu beschleunigen.

Wurde eine Website nur von Algorithmen betroffen, jedoch nicht manuell eine Verletzung der  Webmaster-Richtlinen festgestellt, kann in einem solchen Fall gegen das Ergebnis kein Widerspruch eingelegt werden, so Cutts abschliessend.