SEOFX – SEO Agentur Nürnberg
Technisches SEO

Duplicate Content: Erkennen und beheben

30. März 2026 · 7 Min. Lesezeit

Duplicate Content entsteht wenn identische oder sehr ähnliche Inhalte unter mehreren URLs erreichbar sind. Google muss dann entscheiden welche Version in den Suchergebnissen angezeigt wird – und wählt nicht immer die Version die Sie bevorzugen. Im schlimmsten Fall teilt sich der Ranking-Wert auf mehrere URLs auf und keine davon schafft es auf die erste Seite. Dieser Artikel zeigt die häufigsten Quellen für Duplicate Content und wie Sie sie systematisch beheben.

Was Google als Duplicate Content wertet

Google unterscheidet zwischen exaktem Duplicate Content (identische Seiten unter verschiedenen URLs) und Near-Duplicate Content (sehr ähnliche Seiten mit minimalen Unterschieden). Beides ist problematisch, aber auf unterschiedliche Weise.

Exakter Duplicate Content entsteht oft durch technische Ursachen: die gleiche Seite ist mit und ohne www erreichbar, mit und ohne Trailing Slash, mit und ohne URL-Parameter. Der Inhalt ist identisch – Google sieht aber verschiedene URLs und behandelt sie als separate Seiten.

Near-Duplicate Content ist subtiler. Produktseiten die sich nur in der Farbe unterscheiden, Standortseiten die den gleichen Text mit ausgetauschtem Ortsnamen verwenden, oder Blog-Kategorieseiten die die gleichen Artikel in anderer Reihenfolge zeigen – all das kann von Google als Near-Duplicate erkannt werden.

Über 25 % aller Websites haben Duplicate-Content-Probleme die sie nicht kennen. In den meisten Fällen ist die Ursache technisch und lässt sich mit wenigen Maßnahmen beheben.

Die häufigsten technischen Ursachen

Die meisten Duplicate-Content-Probleme entstehen nicht durch absichtliches Kopieren, sondern durch die technische Konfiguration der Website:

www vs. non-www. Ihre Website ist unter www.example.com und example.com erreichbar. Ohne Weiterleitung sieht Google zwei komplette Kopien Ihrer Website. Lösung: eine 301-Weiterleitung von einer Variante auf die andere einrichten.

HTTP vs. HTTPS. Nach der Umstellung auf HTTPS sind alte HTTP-URLs manchmal noch erreichbar. Lösung: 301-Weiterleitung von HTTP auf HTTPS für alle Seiten.

Trailing Slash. /seite und /seite/ sind technisch zwei verschiedene URLs. Lösung: entscheiden Sie sich für eine Variante und leiten die andere per 301 weiter.

URL-Parameter. Sortier- und Filterparameter wie ?sort=price oder ?color=red erzeugen neue URLs mit dem gleichen oder sehr ähnlichem Inhalt. Bei Online-Shops können so Tausende von Duplicate-URLs entstehen.

Session-IDs in URLs. Manche Shopsysteme hängen Session-IDs an die URL an. Jeder Besucher erzeugt damit eine „neue” URL mit identischem Inhalt.

Canonical Tags richtig einsetzen

Der Canonical Tag ist das wichtigste Werkzeug gegen Duplicate Content. Er teilt Google mit welche URL die bevorzugte Version einer Seite ist. Alle anderen Versionen verweisen per Canonical auf diese eine URL.

So sieht ein Canonical Tag aus:

<link rel="canonical" href="https://example.com/seite/" />

Dieses Tag gehört in den <head> jeder Seite. Es sagt Google: „Das ist die Original-URL. Wenn du ähnliche Inhalte unter anderen URLs findest, ignoriere die und werte nur diese.”

Wichtige Regeln für Canonical Tags:

  • Jede Seite sollte einen self-referencing Canonical haben – also einen Canonical der auf sich selbst zeigt
  • Canonicals müssen absolute URLs sein, keine relativen Pfade
  • Der Canonical muss auf eine Seite zeigen die den HTTP-Status 200 zurückgibt
  • Canonicals sind Hinweise, keine Befehle – Google kann sie ignorieren wenn sie widersprüchlich sind

Praxis-Tipp: Prüfen Sie Ihre Canonicals mit dem URL-Prüftool in der Google Search Console. Es zeigt Ihnen den von Google erkannten Canonical – der muss nicht immer mit dem übereinstimmen den Sie gesetzt haben.

CMS-typische Duplicate-Content-Probleme

Content-Management-Systeme erzeugen häufig Duplicate Content durch automatisch generierte Seiten:

CMS-Paginierung ist ein klassisches Problem. WordPress erstellt für Kategorien automatisch paginierte Seiten: /kategorie/, /kategorie/page/2/, /kategorie/page/3/ usw. Jede Seite hat ähnlichen Content mit leicht unterschiedlichen Artikeln. Lösung: Canonical auf die erste Seite setzen oder rel=“prev” und rel=“next” verwenden.

Tag- und Kategorie-Archive in WordPress sind eine weitere Quelle. Ein Artikel der drei Tags hat, erscheint auf drei Tag-Archivseiten – jeweils mit dem gleichen Textauszug. Lösung: Tag-Archive auf noindex setzen (z.B. über Yoast SEO oder Rank Math) oder Canonicals einrichten.

Druckversionen, AMP-Seiten und mobile Subdomains (m.example.com) erzeugen ebenfalls Duplikate wenn sie nicht korrekt per Canonical oder Alternate-Tag verknüpft sind.

Indexierte Seiten prüfen und aufräumen

Bevor Sie Duplicate Content beheben können, müssen Sie wissen welche Seiten Google überhaupt indexiert hat. Nutzen Sie dafür die Google Search Console:

  • Gehen Sie zu „Seiten” (ehemals „Abdeckung”)
  • Prüfen Sie die Anzahl der indexierten Seiten – ist sie deutlich höher als erwartet? Dann hat Google vermutlich Duplikate indexiert
  • Filtern Sie nach „Duplikat – von Google ausgewählt” und „Duplikat – vom Nutzer nicht als kanonisch festgelegt”

Wenn Google 500 Seiten indexiert hat, Ihre Website aber nur 50 inhaltlich relevante Seiten hat, ist das ein klares Zeichen für massiven Duplicate Content. Die überzähligen Seiten sind meist parametrierte URLs, Archive oder technische Duplikate.

Websites die ihren Index auf die tatsächlich relevanten Seiten reduzieren, sehen oft innerhalb von 4–6 Wochen messbare Ranking-Verbesserungen. Der Grund: Googles Crawl-Budget wird nicht mehr auf irrelevante Duplikate verschwendet.

Content-Duplikate zwischen Seiten

Neben technischen Duplikaten gibt es auch inhaltliche. Das passiert häufig bei:

  • Standortseiten die den gleichen Text mit ausgetauschtem Ortsnamen verwenden: „SEO für München” und „SEO für Hamburg” mit identischem Inhalt bis auf den Stadtnamen
  • Produktvarianten die sich nur in Farbe oder Größe unterscheiden
  • Pressemitteilungen oder Texte die von anderen Websites kopiert wurden
  • Herstellerbeschreibungen die viele Online-Shops unverändert übernehmen

Die Lösung für inhaltliche Duplikate ist immer: einzigartigen Content erstellen. Für Standortseiten bedeutet das: lokale Inhalte, lokale Referenzen, lokale Bewertungen einbauen. Für Produktseiten: eigene Beschreibungen schreiben statt die des Herstellers zu kopieren.

Gut zu wissen: Google bestraft Duplicate Content in der Regel nicht mit einer manuellen Strafe. Aber es wählt eine Version aus und ignoriert die anderen – und das ist nicht immer die Version die Sie bevorzugen.

Tools zur Duplicate-Content-Erkennung

Ein Content-Audit hilft verborgene Duplikate aufzudecken. Diese Tools unterstützen Sie dabei:

Screaming Frog SEO Spider crawlt Ihre Website und findet identische Titles, Descriptions und H1-Tags. Die kostenlose Version crawlt bis zu 500 URLs – für die meisten Unternehmenswebsites ausreichend.

Siteliner ist ein kostenloses Online-Tool das Ihre Website auf doppelte Inhalte, defekte Links und übersprungene Seiten prüft. Es zeigt prozentual an wie viel Content auf verschiedenen Seiten identisch ist.

Google Search Console zeigt unter „Seiten” direkt an welche URLs Google als Duplikat erkannt hat und welche Version als Canonical gewählt wurde. Das ist die zuverlässigste Quelle weil sie zeigt was Google tatsächlich sieht.

Internationale Websites und hreflang

Websites die in mehreren Sprachen oder für verschiedene Länder verfügbar sind, haben ein spezielles Duplicate-Content-Problem. Eine deutsche und eine österreichische Version mit identischem deutschsprachigem Inhalt aber unterschiedlicher Währung – das sieht für Google wie Duplicate Content aus.

Die Lösung ist das hreflang-Attribut – wie Sie es korrekt einsetzen, erfahren Sie in unserem hreflang-Guide. Es teilt Google mit welche Sprachversion für welches Land bestimmt ist:

<link rel="alternate" hreflang="de-DE" href="https://example.de/seite/" /> <link rel="alternate" hreflang="de-AT" href="https://example.at/seite/" />

Hreflang ist komplex und fehleranfällig. Häufige Fehler: fehlende Rückverweise (jede Seite muss auf alle anderen Sprachversionen verweisen), falsche Sprachcodes, oder hreflang-Tags die auf nicht existierende URLs zeigen.

Über 75 % aller hreflang-Implementierungen enthalten Fehler. Nutzen Sie den hreflang Tag Testing Tool von Merkle oder die internationale Ausrichtung in der Search Console um Ihre Implementierung zu prüfen.

Duplicate Content dauerhaft vermeiden

Die beste Strategie gegen Duplicate Content ist Prävention. Richten Sie von Anfang an saubere Strukturen ein:

  • 301-Weiterleitung für www/non-www und HTTP/HTTPS einrichten
  • Einheitliche URL-Struktur mit oder ohne Trailing Slash festlegen
  • Self-referencing Canonicals auf allen Seiten implementieren
  • URL-Parameter in der Search Console deklarieren
  • Tag- und Archivseiten auf noindex setzen oder Canonicals einrichten
  • Bei Website-Relaunches alte URLs per 301 auf neue weiterleiten
  • Regelmäßig den Index in der Search Console prüfen

Eine manuelle Prüfung alle drei Monate reicht aus um neue Probleme früh zu erkennen. Suchen Sie in Google nach site:ihredomain.de und prüfen Sie ob die Anzahl der indexierten Seiten Ihren Erwartungen entspricht. Weicht die Zahl stark nach oben ab, haben Sie wahrscheinlich neue Duplikate.

Duplicate Content auf Ihrer Website?

Im SEO-Audit decken wir doppelte Inhalte, fehlende Canonicals und technische Probleme auf – und liefern einen klaren Maßnahmenplan zur Behebung.

SEO-Audit anfragen