Duplicate Content und Unique Content

Interner und Externer Duplicate Content und dessen Auswirkungen auf das Ranking


Duplicate Content ist in letzter Zeit zu einem dominanten Thema in der SEO Diskussion geworden, da sich gezeigt hat, dass aufgrund der von allen bedeutenden Suchmaschinen implementierten neuen Filter mehrfach im WWW abrufbare Inhalte negative Auswirkungen auf das Ranking der betroffenen Webseiten und Domains haben können. Duplicate Content ist demnach unbedingt zu vermeiden, dementsprechend wichtig ist es, geeignete Methoden zur Identifikation von Unique Content zu entwickeln und konsequent anzuwenden. Duplicate Content bezieht sich hier nicht in erster Linie auf "Contentdiebstahl", sondern zu allererst auf innerhalb derselben Domain oder Subdomain unter verschiedenen URLs erreichbaren, inhaltlich identischen Content.

Suchmaschinen Spam und SERP Ranking Manipulation

Natürlich bleibt auch sogenannter Search Engine Spam, die betrügerischer oder zumindest zweifelhafte und bewusste Manipulation von SERPs durch die massive Publikation, redundanter Inhalte oder Content von schlechte Qualität ein aktuelles Thema. In Ihrem eigenen Interesse und um den Usern auch künftig qualitativ hochwertige Suchergebnisse bieten zu können haben die Betreiber von Suchdiensten längst Maßnahmen gegen derartige Manipulationsversuche ergriffen. Leider greifen diese Filter zur Erkennung und Abwertung von reproduzierten Inhalten auch dann, wenn Webmaster versehentlich durch Nachlässigkeit, aber ohne unlautere Absichten, Duplicate Content veröffentlichen. "Abstrafungen" solcher Webseiten werden dabei als Kollateralschäden bei der Bekämpfung von Suchmaschinen Spam hingenommen.


Duplicate Content wird (nicht immer richtig) erkannt und in SERPs ignoriert

Zunächst muss man verstehen, dass der Begriff "Duplicate Content-Penalty", eine "Abstrafung" aufgrund eindeutig identifizierter, mehfrfach vorhandener Inhalte eigentlich genau genommen eine falsche oder zumindes irreführende Bezeichnung ist. Unter einer Strafe in Form einer herabstufung in den Ergebnislisten der Suchmaschinen stellt man sich einer Art Punkte-Konto vor. Punkte, die von einer Seite abgezogen werden, um zu einer generell nierdrigeren Einschätzung von Relevanz und damit des Rankings wären eine "Bestrafung" der Suchdiensten. Vor diesem Hintergund werden Duplicate Content Seiten werden allerdings nicht wirklich bestraft. Vielmehr werden sie aus den SERPs schlicht herausgefiltert, so wie man ein Sieb verwenden würden, um unerwünschte Partikel aus einer Mischung von gewünschten und unerwünschten Elementen zu entfernen. Manchmal kommt es in beiden Fällen dazu, dass "gute Teilchen" quasi versehentlich mit herausgefiltert werden - und der verantwortliche Webmaster hat das Nachsehen.