SEOFX – SEO Agentur Nürnberg
Technisches SEO

JavaScript SEO: Wie Google JS-Seiten rendert

4 Min. Lesezeit

Immer mehr Websites bauen auf JavaScript-Frameworks wie React, Vue oder Angular. Das macht sie interaktiv und modern – erzeugt aber ein SEO-Problem: Google kann JavaScript nicht sofort wie einfaches HTML lesen. Inhalte die per JS geladen werden, landen in einer Warteschlange und werden oft mit Verzögerung indexiert. Dieser Artikel erklärt wie Googles Rendering funktioniert, welche Probleme JS-lastige Seiten verursachen und was dagegen hilft.

Wie Google JavaScript-Seiten verarbeitet

Google verarbeitet Webseiten in drei Phasen:

Crawlen: Googles Crawler (Googlebot) lädt die rohe HTML-Datei einer URL herunter. Bei klassischen Websites enthält diese HTML-Datei den vollständigen Seiteninhalt – Text, Links, Überschriften.

Rendern: Bei JavaScript-Seiten liefert die HTML-Datei oft nur ein leeres Grundgerüst. Den eigentlichen Inhalt erzeugt erst JavaScript im Browser. Google muss die Seite also wie ein Browser rendern – mit eigenem Prozessor, eigenem Speicher, eigenem Aufwand. Dieser Schritt landet in einer separaten Render-Warteschlange.

Indexieren: Erst nach dem Rendern kann Google den sichtbaren Inhalt analysieren und in den Index aufnehmen.

Laut Google kann der Render-Schritt bei JavaScript-Seiten Tage bis Wochen nach dem Crawlen stattfinden – Inhalte erscheinen in dieser Zeit nicht in den Suchergebnissen.

Das bedeutet: Neue Inhalte auf JavaScript-gerenderten Seiten brauchen länger um in Google zu erscheinen als Inhalte auf statischen HTML-Seiten.

Typische Probleme bei JS-lastigen Websites

Inhalte werden gar nicht indexiert

Wenn JavaScript-Inhalte von externen APIs geladen werden oder bestimmte Interaktionen voraussetzen (Klick, Scrollen, Login), rendert Googlebot sie oft nicht. Was der Nutzer sieht, sieht Google nicht.

Verlangsamte Indexierung

Selbst wenn Google Ihre JS-Seiten korrekt rendert, dauert es länger als bei HTML-Seiten. Für neue Seiten oder häufig aktualisierte Inhalte ist das ein Problem – Rankings erscheinen verspätet.

Wenn Navigation und interne Links per JavaScript aufgebaut werden, erkennt Google diese Verbindungen zwischen Seiten möglicherweise nicht. Das schadet der internen Verlinkung und der Crawling-Effizienz.

Ladezeit und Core Web Vitals

Große JavaScript-Bundles verlängern die Ladezeit erheblich. Das trifft direkt den LCP (Largest Contentful Paint) und damit die PageSpeed & Core Web Vitals.

Google verwendet für das Rendering eine veraltete Chrome-Version – Features die neuere Browser-Versionen unterstützen, stehen Googlebot möglicherweise nicht zur Verfügung. Das betrifft moderne CSS-Funktionen ebenso wie aktuelle JS-APIs.

Lösungen: SSR, SSG und Dynamic Rendering

Server-Side Rendering (SSR)

Beim SSR rendert der Server die Seite vollständig bevor er sie ausliefert. Der Browser (und Googlebot) empfängt fertiges HTML mit dem kompletten Inhalt. Frameworks wie Next.js (React) oder Nuxt.js (Vue) bieten SSR out of the box.

Vorteil: Inhalte sind sofort im HTML und werden schnell indexiert. Ladezeit für Nutzer verbessert sich.

Static Site Generation (SSG)

Beim SSG werden alle Seiten beim Build zu statischen HTML-Dateien kompiliert. Kein JavaScript nötig für den initialen Inhalt. Ideal für Seiten mit wenig dynamischem Inhalt – Unternehmenswebsites, Blogs, Portfolios.

Vorteil: Maximale Indexierungsgeschwindigkeit, beste Ladeperformance, kein Rendering-Problem.

Dynamic Rendering

Eine Zwischenlösung: Normale Nutzer erhalten die JavaScript-Version, Crawler (erkannt am User-Agent) erhalten eine vorgerenderte HTML-Version. Tools wie Rendertron oder Prerender.io übernehmen das vorherige Rendern.

Wenn Sie prüfen wollen was Googlebot wirklich sieht: Öffnen Sie die Google Search Console, wählen Sie „URL-Prüfung" und klicken Sie auf „Gerenderte Seite ansehen". So sehen Sie exakt den HTML-Inhalt nach dem JavaScript-Rendering – und erkennen ob wichtige Inhalte fehlen.

So testen Sie Ihre JavaScript-SEO

Google Search Console – URL-Inspektor: Das wichtigste Tool. Zeigt den gerenderten Zustand einer URL aus Googles Perspektive, ob die URL indexiert ist und wann Google zuletzt gecrawlt hat.

„Fetch as Google” (jetzt URL-Prüfung): In der GSC können Sie das Rendering manuell anstoßen und das Ergebnis inspizieren – sinnvoll nach größeren Änderungen.

Screaming Frog mit JS-Rendering: Der bekannte Crawler kann JavaScript rendern und zeigt an, ob Inhalte im HTML oder erst per JS geladen werden.

Lighthouse in Chrome DevTools: Analysiert Performance und gibt Hinweise auf JS-Probleme. Kostenlos direkt im Browser nutzbar.

Was Sie konkret prüfen sollten

  • Sind Ihre wichtigsten Inhalte (Texte, Überschriften, Links) im rohen HTML enthalten – oder erst nach JS-Ausführung sichtbar?
  • Laden Sie externe Datenquellen (APIs, Datenbanken) per JavaScript, die Googlebot möglicherweise nicht abfragt?
  • Sind Ihre internen Links im gerenderten HTML vorhanden?
  • Wie lange dauert es bis neue Seiten in Google erscheinen?

Websites die auf SSG oder SSR setzen, werden im Durchschnitt 3–5x schneller von Google indexiert als reine Client-Side-Rendering-Lösungen – ein messbarer Unterschied besonders bei neuen Inhalten.

Wenn Sie sich unsicher sind ob Ihre Website von JavaScript-SEO-Problemen betroffen ist, hilft ein technisches SEO-Audit weiter. Wir analysieren Crawling, Rendering und Indexierung und zeigen konkrete Lösungen.

JavaScript SEO professionell prüfen.

Wir analysieren wie Google Ihre Website rendert, ob Inhalte vollständig indexiert werden und welche technischen Maßnahmen die Sichtbarkeit verbessern.

SEO-Audit anfragen

Weitere Artikel zu Technisches SEO