AJAX Crawling Scheme

Was ist das AJAX Crawling Scheme?
Das AJAX Crawling Scheme war ein von Google eingeführtes Verfahren, um Inhalte von Ajax- und JavaScript-lastigen Webseiten crawl- und indexierbar zu machen. Es basierte auf speziellen URL-Parametern und sogenannten Snapshots. Seit 2018 gilt es als veraltet, ist aber für technisches SEO und Legacy-Projekte weiterhin wichtig zu verstehen.
1. Einführung in das AJAX Crawling Scheme
Das AJAX Crawling Scheme bezeichnet ein von Google 2009 eingeführtes technisches Konzept, mit dem Suchmaschinen Inhalte auf Ajax-basierten Webseiten besser erfassen sollten. Ziel war es, JavaScript-generierte Inhalte für den Googlebot sichtbar zu machen, als dieser noch keine oder nur sehr eingeschränkte JavaScript-Unterstützung hatte.
Für moderne Websites ist das Verfahren historisch, aber SEO-Teams, Entwickler und E-Commerce-Verantwortliche sollten es kennen, um:
2. Grundlagen: AJAX, JavaScript und Crawling
Um das AJAX Crawling Scheme zu verstehen, solltest du die Basisbegriffe kennen, die im E-Commerce-Alltag regelmäßig auftauchen:
2.1 Was ist AJAX?
AJAX steht für Asynchronous JavaScript and XML. Es beschreibt ein Muster, bei dem eine Webseite Daten im Hintergrund nachlädt, ohne die komplette Seite neu zu laden. In modernen Shops wird AJAX u. a. verwendet für:
Der Vorteil: Nutzer erleben eine schnellere, interaktive Oberfläche. Der Nachteil aus SEO-Sicht: Inhalte entstehen teilweise erst im Browser – und damit später als der klassische HTML-Quellcode.
2.2 Wie crawlen Suchmaschinen JavaScript?
Früher hat der Googlebot JavaScript kaum oder gar nicht ausgeführt. Er sah nur das statische HTML. Inhalte, die erst durch AJAX nachgeladen wurden, waren unsichtbar. Darum brauchte Google das AJAX Crawling Scheme als Zwischenlösung.
Heute kann Google modernen JavaScript-Code in vielen Fällen ausführen und rendern. Dennoch gilt:
3. Definition: Was genau ist das AJAX Crawling Scheme?
Das AJAX Crawling Scheme ist ein technischer Ansatz, der auf speziellen URL-Formaten und vorrendernden HTML-Snapshots basiert. Es definiert, wie eine Ajax-Website ihre Inhalte so bereitstellt, dass Suchmaschinen diese wie statische HTML-Seiten crawlen können.
Kernbestandteile des Schemas sind:
Aus Sicht von SEO-Managern war es ein Workaround, um trotz intensiver AJAX-Nutzung Rankings und Indexierung sicherzustellen.
4. Technische Funktionsweise des AJAX Crawling Schemes
4.1 Hashbang-URLs (#!) als Kennzeichen
Im ursprünglichen Konzept sollten AJAX-Websites ihre „State“-Informationen in einem sogenannten Hashbang in der URL abbilden, zum Beispiel:
Der Hashbang-Teil (alles nach #!) war für Browser und JavaScript relevant, aber eigentlich nicht Teil der URL, die der Server sieht. Genau hier setzte das AJAX Crawling Scheme an.
4.2 Der _escaped_fragment_-Parameter
Für Crawler wie den Googlebot wurde aus der Hashbang-URL eine alternative URL mit dem Parameter _escaped_fragment_ erzeugt. Die Umwandlung sah vereinfacht so aus:
| Element | Beispiel |
|---|---|
| Hashbang-URL | https://www.beispielshop.de/produkte#!id=12345 |
| Crawler-URL | https://www.beispielshop.de/produkte?_escaped_fragment_=id%3D12345 |
Der Server erkennt den Parameter _escaped_fragment_ und liefert statt der „normalen“ Ajax-Anwendung einen statischen HTML-Snapshot der jeweiligen Seite zurück.
4.3 Snapshots: statisches HTML für den Googlebot
Ein Snapshot ist eine vollständig vorgerenderte HTML-Version des eigentlichen Ajax-Contents. Aus Sicht des Crawlers ist es eine klassische HTML-Seite mit:
Google konnte so Inhalte indexieren, die für Nutzer erst nach JavaScript-Ausführung sichtbar waren.
5. Historie: Einführung und Abschaffung des AJAX Crawling Schemes
5.1 Einführung durch Google
Google führte das AJAX Crawling Scheme 2009 offiziell ein. Damals war es die empfohlene Methode für Ajax-lastige Websites, um indexierbar zu bleiben. Viele Single-Page-Applications (SPA) und frühe JavaScript-Shops haben dieses Muster zumindest teilweise genutzt.
5.2 Abschaffung und heutiger Status
Im Oktober 2015 kündigte Google an, das AJAX Crawling Scheme nicht mehr weiterzuentwickeln. Seit 2018 gilt es offiziell als veraltet. Google kann JavaScript inzwischen selbst rendern und empfiehlt stattdessen:
Für aktuelle Projekte solltest du das AJAX Crawling Scheme nicht mehr neu implementieren, sondern auf moderne JavaScript-SEO-Patterns setzen.
6. Warum das AJAX Crawling Scheme im E-Commerce noch relevant ist
Auch wenn das Schema offiziell „tot“ ist, taucht es in E-Commerce-Projekten regelmäßig auf – vor allem bei:
Für dich als Head of E-Commerce, SEO-Manager oder IT-Leitung ist es wichtig, solche Altlasten zu erkennen und gezielt zu modernisieren, um:
7. Typische Probleme mit dem AJAX Crawling Scheme
7.1 Crawl-Budget und Performance
Das AJAX Crawling Scheme erzeugt zusätzliche URL-Varianten (mit und ohne _escaped_fragment_). Das kann das Crawl-Budget belasten, insbesondere bei großen Sortiments-Shops mit vielen Facetten und Kombinationen.
7.2 Duplicate Content und Parameter-Wildwuchs
Wenn Hashbang-URLs, normale URLs und _escaped_fragment_-URLs parallel existieren, kann es zu doppelten oder mehrfachen Inhaltsversionen kommen. Häufige Risiken:
7.3 Wartungskomplexität
Snapshots müssen aktiv generiert und aktuell gehalten werden. Bei großen Katalogen führt das schnell zu Komplexität im Deployment und in der Content-Aktualisierung. Für automatisierte Content-Pipelines und Feed-basierte Generierung ist diese Architektur deutlich unpraktischer als modernes SSR oder statische Generierung.
8. Heutige Alternativen zum AJAX Crawling Scheme
Statt auf das AJAX Crawling Scheme zu setzen, empfehlen moderne SEO- und E-Commerce-Setups folgende Ansätze:
8.1 Serverseitiges Rendering (SSR)
Beim serverseitigen Rendering werden die wesentlichen Inhalte bereits auf dem Server in HTML gerendert und an Browser und Crawler ausgeliefert. JavaScript verbessert dann nur noch die Interaktivität. Vorteile:
8.2 Pre-Rendering und statische Generierung
Bei Pre-Rendering werden Seiten im Vorfeld als statische HTML-Dateien erzeugt. Das ist besonders interessant, wenn du Produktseiten aus Feeds oder PIM-Daten generierst und diese regelmäßig, aber nicht minütlich, aktualisieren musst.
8.3 „Dynamic Rendering“ (für komplexe JavaScript-Sites)
Als Übergangslösung wurde von Google eine Zeit lang „Dynamic Rendering“ beschrieben: Nutzer bekommen die JavaScript-App, Bots bekommen eine vorgerenderte HTML-Version. Auch dieses Modell gilt zunehmend als Übergangstechnik, ist aber immer noch verbreitet.
9. AJAX Crawling Scheme vs. moderne JavaScript-SEO
| Aspekt | AJAX Crawling Scheme | Moderne JavaScript-SEO |
|---|---|---|
| URL-Struktur | Hashbang (#!), _escaped_fragment_ | saubere, lesbare URLs ohne Hashbang |
| Rendering | Snapshots für Crawler | SSR, SSG, Hydration |
| Empfehlung | veraltet, nicht mehr nutzen | aktueller Best Practice |
10. Praktische Empfehlungen für SEO und E-Commerce-Teams
10.1 Erkennen, ob AJAX Crawling Scheme im Einsatz ist
Prüfe dein aktuelles Setup mit Blick auf folgende Signale:
10.2 Migrationsschritte weg vom AJAX Crawling Scheme
Wenn du ein bestehendes System migrieren willst, sind folgende Schritte sinnvoll:
[h2]11. AJAX Crawling Scheme und Content-Automatisierung im E-Commerce[/h2]Für große Onlineshops mit tausenden SKUs ist ein klarer technischer Unterbau entscheidend, damit automatisiert erzeugter Content performen kann. Feed-basierte, KI-gestützte Textgenerierung entfaltet ihren vollen Effekt nur, wenn:
Wenn du Content in Bulk aus Produktfeeds generierst, solltest du deshalb früh prüfen, ob noch Hashbang- oder _escaped_fragment_-Konstrukte existieren. Eine technische Bereinigung vor oder parallel zur Content-Skalierung verhindert, dass du hochwertigen Content auf problematische URL-Strukturen schreibst.
12. Häufige Fragen zum AJAX Crawling Scheme
Ist das AJAX Crawling Scheme noch aktuell?
Nein, das AJAX Crawling Scheme gilt seit 2018 offiziell als veraltet. Google kann JavaScript inzwischen selbst rendern und empfiehlt moderne Methoden wie serverseitiges Rendering oder statische Generierung statt Hashbang und _escaped_fragment_.
Wie erkenne ich, ob meine Website das AJAX Crawling Scheme verwendet?
Du erkennst die Verwendung des AJAX Crawling Schemes typischerweise an URLs mit Hashbangs wie #! in der Adresszeile oder an indexierten URLs mit dem Parameter _escaped_fragment_. Außerdem können Serverkonfigurationen oder alte SPA Frameworks explizite Regeln für Snapshot Auslieferung enthalten.
Schadet das AJAX Crawling Scheme meinen SEO Rankings?
Das AJAX Crawling Scheme schadet nicht automatisch den Rankings, ist aber technisch überholt und kann Probleme wie Duplicate Content, unklare URL Signale und verschwendetes Crawl Budget verursachen. In der Praxis ist eine Migration auf moderne JavaScript SEO Konzepte meist sinnvoll und reduziert Risiken.
Soll ich das AJAX Crawling Scheme in neuen Projekten noch einsetzen?
Nein, für neue Projekte solltest du das AJAX Crawling Scheme nicht mehr nutzen. Stattdessen empfiehlt sich ein Setup mit klassischer HTML Auslieferung, serverseitigem Rendering oder statischer Generierung, ergänzt um saubere JavaScript Funktionen ohne Hashbang basierte URL Muster.
Was ist der Unterschied zwischen AJAX Crawling Scheme und Dynamic Rendering?
Beim AJAX Crawling Scheme werden spezielle Hashbang URLs und der Parameter _escaped_fragment_ verwendet, um Snapshots auszuliefern. Dynamic Rendering hingegen liefert abhängig vom User Agent entweder die JavaScript Anwendung oder eine vorgerenderte HTML Version aus, ohne die spezielle URL Syntax des alten Schemas zu nutzen.
Wie migriere ich von einem AJAX Crawling Scheme Setup auf eine moderne Lösung?
Eine typische Migration umfasst das Entfernen von Hashbangs, das Abschalten des _escaped_fragment_ Handlings, die Einführung kanonischer URLs, das Einrichten von 301 Weiterleitungen auf neue Ziel URLs und die Implementierung von serverseitigem Rendering oder statischer Generierung, kombiniert mit Kontrolle der Indexierung in der Google Search Console.
Ist das AJAX Crawling Scheme noch relevant für E Commerce Shops?
Für neue Shops ist das AJAX Crawling Scheme nicht mehr relevant, für bestehende Projekte kann es aber weiterhin wichtig sein. Gerade ältere Shop Systeme oder Legacy SPAs nutzen oft noch Hashbang Muster. In solchen Fällen solltest du das Setup analysieren, technische Altlasten abbauen und auf moderne, suchmaschinenfreundliche Rendering Methoden umstellen.
13. Nächste Schritte: Du möchtest feed2content.ai ® kennenlernen?
Wenn deine technische Basis steht und du Produktdaten bereits sauber in Feeds, PIM oder Shop-Systemen organisiert hast, ist der nächste Hebel die skalierbare Erstellung von suchmaschinenoptimierten Produkttexten.
Sieh dir unsere Funktionen live an und teste feed2content.ai ® kostenfrei.
Kostenlos startenDu hast noch Fragen?









Keine Kommentare vorhanden