Im Blog von Sistrix habe ich einen Artikel über den neuen Google Ähnlichkeitsfilter gelesen.
Die Kernaussagen des Beitrages:
Anscheinend hat Google vor Kurzem bei seinem Filter, der ähnliche Inhalte erkennen soll, die Parameter verändert oder neue Erkennungsmuster eingeführt. Vermutet wird auch das neue Google Patent, welches Mitte letzten Jahres eingereicht wurde, mit dem Namen „Detecting spam documents in a phrase based information retrieval system“ dahinter steckt.
Auf jeden Fall sorgt wohl der Filter bzw. das neue Patent im Moment dafür, dass derzeit jede Menge Projekte mit einer vielzahl von ähnlichen und gleichen Daten von Google abgestraft werden. Das erkennt man daran, dass v.a. Preisvergleichs-Seiten oder mit Produktdaten erstellten Shopping-Verzeichisse bei Google nicht mehr auffindbar sind, oder im Google-Index ziemlich weit hinten stehen.
Der Grund dafür könnte eben z.B. das neue Google-Patent sein, dieses soll nämlich laut der Patent-Beschreibung die Spamerkennung verbessern. Dabei werden Phrasen, die zusammen mit anderen Textbausteinen in einer Seite vorkommen erkannt und zusammen mit dem Dokument gespeichert. Wenn nun diese Kombination von Textbausteinen auf mehreren Seiten vorkommt (was ja bei den CSV-Produktdaten der Affiliate-Netzwerke der Fall ist), kann man davon ausgehen, dass es sich um Spamseiten handelt und diese werden dann von dem neuen Patent abgestraft.
Da die Preisportale und Shopping-Verzeiche u.a. mit die größten Affiliates sind, muss man schauen wie sich diese Änderungen auf die Affiliate-Umsätze auswirken.
Was sind Eure Erfahrungen?