Was der Googlebot wirklich sieht: JavaScript-Rendering im Test

Was der Googlebot wirklich sieht: JavaScript-Rendering im Test

März 2024. Ein Kunde verlor innerhalb von sechs Wochen 60 Prozent seiner Rankings. Die Website? Komplett in React gebaut, client-side rendering, keine Server-Side-Rendering-Infrastruktur. Jemand musste rausfinden, was der Googlebot tatsächlich verarbeitet.

Ich startete mit dem Mobile-Friendly Test. Der zeigte gerenderte Inhalte korrekt an. Dann die URL-Prüfung in der Search Console: auch okay. Aber die Live-URLs rankten nicht. Etwas stimmte nicht zwischen Test und Realität.

Also Setup für echte Tests. Ich nahm 50 verschiedene URLs aus der Website. Jede wurde geprüft mit: Chrome DevTools im Throttling-Modus, Screaming Frog mit JavaScript-Rendering, Oncrawl, der offiziellen Google-Testing-Tool und einem selbst aufgesetzten Puppeteer-Script, das genau dokumentierte, wann welche Elemente erschienen.

Die Ergebnisse waren verwirrend. Screaming Frog sah 95 Prozent aller Inhalte. Das Google-Tool zeigte 89 Prozent. Mein Puppeteer-Script mit simuliertem Googlebot-User-Agent? Nur 34 Prozent beim ersten Durchlauf ohne Wartezeit.

Das Problem: Render-Timing. Die React-App machte nach initialem Load noch 14 separate API-Calls für Produktdaten, Bewertungen und verwandte Artikel. Diese Calls dauerten zwischen 800ms und 3,2 Sekunden. Der Googlebot wartete nicht auf alle.

Ich baute ein Monitoring auf. Jede Stunde wurde eine Testseite gecrawlt und gerendert, mit exaktem Timing-Protokoll. Nach 200 Crawls über eine Woche: Der Bot wartete durchschnittlich 5,3 Sekunden. Aber inkonsistent. Manchmal 3 Sekunden, manchmal 8. Inhalte, die nach 6 Sekunden luden, erschienen nur in 40 Prozent der Crawls.

Die Lösung war nicht SSR. Zu aufwendig für den Kunden. Stattdessen: kritische Inhalte direkt im HTML-Markup als JSON-LD, der sofort verfügbar war. API-Calls wurden priorisiert. Die wichtigsten drei Calls mussten unter 2 Sekunden abschließen, der Rest wurde als Enhancement behandelt.

Nach vier Wochen Testing und zwei Wochen Implementierung: Rankings kamen zurück. Nicht alle, etwa 70 Prozent. Aber stabil. Die wichtigste Erkenntnis? Die Testing-Tools zeigen eine Idealversion. Real-World-Crawling ist chaotischer und weniger geduldig.

Haben Sie einen Fehler in diesem Artikel entdeckt? Helfen Sie uns, die Qualität zu verbessern und melden Sie Ungenauigkeiten.

Fehler melden

Cookie-Einstellungen

Wir verwenden Cookies, um Ihre Erfahrung zu verbessern. Einige sind notwendig, andere optional.

Cookie-Einstellungen verwalten

Wählen Sie, welche Cookie-Kategorien Sie zulassen möchten. Erforderliche Cookies können nicht deaktiviert werden.