Straft Google doppelten Content ab?
Die meisten professionellen Websites sind sowohl unter der beispielhaften URL http://www.website.de als auch unter der Adresse http://website.de erreichbar (ohne „www“). Was für User gut ist, da sie die gewünschte Website auf jeden Fall erreichen, könnte aus Sicht der Suchmaschinen ein Problem sein. Seit dem letzten Google-Update wird darüber spekuliert, ob Google Anbieter für sogenannten doppelten Content abstraft. Der Verdacht ist nicht unbegründet, schließlich könnten Betreiber durch deckungsgleiche Inhalte unter verschiedenen Domains die Zahl der Zugriffe erhöhen und dadurch die Platzierung im Suchmaschinen-Ranking verbessern.
Falls Google das Abstrafen von doppeltem Content tatsächlich vorantreiben sollte, dürfte dies zwei Gründe haben: Zum einen sollen den Usern in den Suchergebnissen nicht mehrere Websites gleichen Inhalts angezeigt werden, zum anderen ist Google seit eh und je bestrebt, manipulierte Websites aus den Suchergebnissen zu verbannen, um „Wettbewerbsverzerrung“ zu unterbinden. Insofern wären solche Maßnahmen nachvollziehbar.
Lösungsmöglichkeiten, um doppelten Content zu vermeiden
Google selbst stellt auf der englischen Support-Seite für Webmaster Informationen darüber zur Verfügung, wie doppelter Content schon bei der Programmierung vermieden werden kann. Einige Tipps erläutern wir näher.
01 / Bei internen Verknüpfungen den gleichen Aufbau verwenden
Beispiele für vermeidbare unterschiedliche Linkstrukturen innerhalb einer Website wären etwa:
- http://www.website.de/index
- http://www.website.de/index/
- http://www.website.de/index.html
02 / Re-Directs (301-Weiterleitungen) nutzen
Vor allem bei Relaunches neuer Websites entsteht doppelter Content, wenn Seiten noch nicht freigeschaltet sind. Mit der Programmierung eines Rewrites in einer .htaccess-Datei wird der Suchmaschine über den Befehl R=permanent signalisiert, dass die URL dauerhaft auf eine neue Adresse umgezogen ist. Auch die automatische Darstellung einer eingegebenen URL ohne „www“ als URL mit „www“ kann dadurch generiert werden.
03 / Seiten gezielt von der Indexierung ausschließen
Ist die Textdatei robots.txt im Stammverzeichnis der URL platziert, sind Seiten gezielt blockierbar, damit Suchmaschinen diese nicht erfassen. Durch Disallow-Befehle können eine Seite oder auch deren Teile wie etwa Bilder, Dateien oder Logfiles vor Suchmaschinen „geschützt“ werden.
04 / Syndizierten Inhalt anderer Content-Anbieter mit Augenmaß verwenden
Verwendet ein Website-Betreiber mit Genehmigung Inhalte anderer Anbieter, besteht die Möglichkeit, dass Google und andere Suchmaschinen dies ebenfalls als doppelten Content werten. Die Suchmaschinen würden in einem solchen Fall dann entscheiden, welcher Inhalt auf welcher Seite von größerer Relevanz ist. Vor allem empfiehlt sich in diesem Zusammenhang, gegen unrechtmäßig kopierten Inhalt von der eigenen Website vorzugehen und dies Google auch zu melden.
05 / Doppelten Content auf der eigenen Website verringern
Gibt es im Internet-Auftritt mehrere inhaltlich weitgehend deckungsgleiche Seiten, liegt die Überlegung nahe, diese ähnlichen Inhalte zusammenzufassen und den unterschiedlichen Content auf individuellen Unterseiten auszuweisen.
Unterschiedliche Meinungen zum Thema „Duplicate Content“
Die Blogosphäre diskutiert das Verhalten von Google und anderen Suchmaschinen in Bezug auf doppelten Content und eine mögliche Bestrafung durchaus kontrovers. Während einige Blogger die Einflussnahme der Suchmaschinen auf das Ranking von Websites mit duplizierten Inhalten für eine Tatsache halten, sehen andere diese Annahme skeptisch, da insbesondere der Aufwand dafür viel zu hoch sei. Auf jeden Fall sollten Webseiten-Betreiber ihr Ranking stets genau beobachten und im Falle zunächst unerklärlicher Herabstufungen gegebenenfalls geeignete Maßnahmen ergreifen.
SEO-Beratung von //SEIBERT/MEDIA/CONSULTING
//SEIBERT/MEDIA berät Unternehmen im Rahmen der Suchmaschinenoptimierung und verhilft Websites durch seriöse und nachhaltige SEO-Maßnahmen dauerhaft zu prominenten Platzierungen. Zu unserem umfassenden Verständnis von Suchmaschinenoptimierung gehört auch, mögliche Risiken beim Ranking auszuschließen und zu vermeiden. Nehmen Sie mit uns Kontakt auf. Wir beraten Sie gerne.
Weitere Informationen zum Thema „Duplicate Content“:
Google - Webmasters/Site owners Help Duplicate Content (englisch)
Google: Duplicate Content ist ein Problem
Mit der Datei robots.txt Seiten vor Robots schützen
Weiterführende Informationen zum Thema SEO:
White Hat SEO: Seriöse Suchmaschinenoptimierung für dauerhaften Erfolg
Ranking: Google liebt Aktualität
Linkpopularität und Suchmaschinenerfolg: Wenn Google meine Website nicht mehr kennt
Mehr über die Creative-Commons-Lizenz erfahren