AJAX Crawling Scheme

Was ist AJAX Crawling Scheme?

Was ist das AJAX Crawling Scheme?

Das AJAX Crawling Scheme war ein von Google eingeführtes Verfahren, um Inhalte von Ajax- und JavaScript-lastigen Webseiten crawl- und indexierbar zu machen. Es basierte auf speziellen URL-Parametern und sogenannten Snapshots. Seit 2018 gilt es als veraltet, ist aber für technisches SEO und Legacy-Projekte weiterhin wichtig zu verstehen.

1. Einführung in das AJAX Crawling Scheme

Das AJAX Crawling Scheme bezeichnet ein von Google 2009 eingeführtes technisches Konzept, mit dem Suchmaschinen Inhalte auf Ajax-basierten Webseiten besser erfassen sollten. Ziel war es, JavaScript-generierte Inhalte für den Googlebot sichtbar zu machen, als dieser noch keine oder nur sehr eingeschränkte JavaScript-Unterstützung hatte.

Für moderne Websites ist das Verfahren historisch, aber SEO-Teams, Entwickler und E-Commerce-Verantwortliche sollten es kennen, um:

  • Altprojekte und Legacy-Setups zu verstehen
  • Weiterleitungen und URL-Strukturen korrekt zu migrieren
  • Indexierungsprobleme bei älteren Shop-Systemen sauber zu beheben
  • die Entwicklung hin zu moderner JavaScript-SEO einordnen zu können

2. Grundlagen: AJAX, JavaScript und Crawling

Um das AJAX Crawling Scheme zu verstehen, solltest du die Basisbegriffe kennen, die im E-Commerce-Alltag regelmäßig auftauchen:

2.1 Was ist AJAX?

AJAX steht für Asynchronous JavaScript and XML. Es beschreibt ein Muster, bei dem eine Webseite Daten im Hintergrund nachlädt, ohne die komplette Seite neu zu laden. In modernen Shops wird AJAX u. a. verwendet für:

  • Filter- und Facettennavigation (Farbe, Größe, Preis)
  • Infinite Scroll oder „Mehr Produkte laden“-Buttons
  • Warenkorb-Updates ohne Seitenreload
  • Product Configurator oder Variantenwechsel

Der Vorteil: Nutzer erleben eine schnellere, interaktive Oberfläche. Der Nachteil aus SEO-Sicht: Inhalte entstehen teilweise erst im Browser – und damit später als der klassische HTML-Quellcode.

2.2 Wie crawlen Suchmaschinen JavaScript?

Früher hat der Googlebot JavaScript kaum oder gar nicht ausgeführt. Er sah nur das statische HTML. Inhalte, die erst durch AJAX nachgeladen wurden, waren unsichtbar. Darum brauchte Google das AJAX Crawling Scheme als Zwischenlösung.

Heute kann Google modernen JavaScript-Code in vielen Fällen ausführen und rendern. Dennoch gilt:

  • Rendering ist ressourcenintensiv und kann verzögert stattfinden
  • Fehler im JavaScript oder in der Serverkonfiguration können Inhalte blockieren
  • Server-seitiges Rendering (SSR) und statische Render-Snapshots sind oft robuster

3. Definition: Was genau ist das AJAX Crawling Scheme?

Das AJAX Crawling Scheme ist ein technischer Ansatz, der auf speziellen URL-Formaten und vorrendernden HTML-Snapshots basiert. Es definiert, wie eine Ajax-Website ihre Inhalte so bereitstellt, dass Suchmaschinen diese wie statische HTML-Seiten crawlen können.

Kernbestandteile des Schemas sind:

  • die Verwendung des Hashbang-Patterns (#!) in URLs
  • der spezielle Parameter _escaped_fragment_
  • Server-generierte Pre-Rendered Snapshots des Seiteninhalts
  • eine feste Zuordnung zwischen „normaler“ URL und Snapshot-URL

Aus Sicht von SEO-Managern war es ein Workaround, um trotz intensiver AJAX-Nutzung Rankings und Indexierung sicherzustellen.

4. Technische Funktionsweise des AJAX Crawling Schemes

4.1 Hashbang-URLs (#!) als Kennzeichen

Im ursprünglichen Konzept sollten AJAX-Websites ihre „State“-Informationen in einem sogenannten Hashbang in der URL abbilden, zum Beispiel:

  • https://www.beispielshop.de/produkte#!kategorie=schuhe
  • https://www.beispielshop.de/produkte#!id=12345

Der Hashbang-Teil (alles nach #!) war für Browser und JavaScript relevant, aber eigentlich nicht Teil der URL, die der Server sieht. Genau hier setzte das AJAX Crawling Scheme an.

4.2 Der _escaped_fragment_-Parameter

Für Crawler wie den Googlebot wurde aus der Hashbang-URL eine alternative URL mit dem Parameter _escaped_fragment_ erzeugt. Die Umwandlung sah vereinfacht so aus:

Element Beispiel
Hashbang-URL https://www.beispielshop.de/produkte#!id=12345
Crawler-URL https://www.beispielshop.de/produkte?_escaped_fragment_=id%3D12345

Der Server erkennt den Parameter _escaped_fragment_ und liefert statt der „normalen“ Ajax-Anwendung einen statischen HTML-Snapshot der jeweiligen Seite zurück.

4.3 Snapshots: statisches HTML für den Googlebot

Ein Snapshot ist eine vollständig vorgerenderte HTML-Version des eigentlichen Ajax-Contents. Aus Sicht des Crawlers ist es eine klassische HTML-Seite mit:

  • vollständigen Texten und Produktinformationen
  • Meta-Tags wie Title und Description
  • interner Verlinkung über normale <a>-Links

Google konnte so Inhalte indexieren, die für Nutzer erst nach JavaScript-Ausführung sichtbar waren.

5. Historie: Einführung und Abschaffung des AJAX Crawling Schemes

5.1 Einführung durch Google

Google führte das AJAX Crawling Scheme 2009 offiziell ein. Damals war es die empfohlene Methode für Ajax-lastige Websites, um indexierbar zu bleiben. Viele Single-Page-Applications (SPA) und frühe JavaScript-Shops haben dieses Muster zumindest teilweise genutzt.

5.2 Abschaffung und heutiger Status

Im Oktober 2015 kündigte Google an, das AJAX Crawling Scheme nicht mehr weiterzuentwickeln. Seit 2018 gilt es offiziell als veraltet. Google kann JavaScript inzwischen selbst rendern und empfiehlt stattdessen:

  • Progressive Enhancement und serverseitige Render-Strategien
  • isomorphes JavaScript bzw. Universal Rendering
  • strukturierte, saubere URLs ohne Hashbangs

Für aktuelle Projekte solltest du das AJAX Crawling Scheme nicht mehr neu implementieren, sondern auf moderne JavaScript-SEO-Patterns setzen.

6. Warum das AJAX Crawling Scheme im E-Commerce noch relevant ist

Auch wenn das Schema offiziell „tot“ ist, taucht es in E-Commerce-Projekten regelmäßig auf – vor allem bei:

  • älteren Shopware-, Magento- oder Eigenentwicklungs-Instanzen
  • Legacy-SPAs, die nie sauber migriert wurden
  • Subdomains oder Mikrosites, die historisch gewachsen sind

Für dich als Head of E-Commerce, SEO-Manager oder IT-Leitung ist es wichtig, solche Altlasten zu erkennen und gezielt zu modernisieren, um:

  • Indexierungsprobleme zu vermeiden
  • Parameter-Chaos und Duplicate Content zu reduzieren
  • eine klare, Update-fähige technische Basis für Bulk-Content-Prozesse zu schaffen

7. Typische Probleme mit dem AJAX Crawling Scheme

7.1 Crawl-Budget und Performance

Das AJAX Crawling Scheme erzeugt zusätzliche URL-Varianten (mit und ohne _escaped_fragment_). Das kann das Crawl-Budget belasten, insbesondere bei großen Sortiments-Shops mit vielen Facetten und Kombinationen.

7.2 Duplicate Content und Parameter-Wildwuchs

Wenn Hashbang-URLs, normale URLs und _escaped_fragment_-URLs parallel existieren, kann es zu doppelten oder mehrfachen Inhaltsversionen kommen. Häufige Risiken:

  • mehrere URLs mit ähnlichem oder identischem Content
  • unklare Canonical-Tags oder fehlende Canonicals
  • schwächere Ranking-Signale, da Signale aufgesplittet werden

7.3 Wartungskomplexität

Snapshots müssen aktiv generiert und aktuell gehalten werden. Bei großen Katalogen führt das schnell zu Komplexität im Deployment und in der Content-Aktualisierung. Für automatisierte Content-Pipelines und Feed-basierte Generierung ist diese Architektur deutlich unpraktischer als modernes SSR oder statische Generierung.

8. Heutige Alternativen zum AJAX Crawling Scheme

Statt auf das AJAX Crawling Scheme zu setzen, empfehlen moderne SEO- und E-Commerce-Setups folgende Ansätze:

8.1 Serverseitiges Rendering (SSR)

Beim serverseitigen Rendering werden die wesentlichen Inhalte bereits auf dem Server in HTML gerendert und an Browser und Crawler ausgeliefert. JavaScript verbessert dann nur noch die Interaktivität. Vorteile:

  • stabile Indexierung auch bei eingeschränkter JS-Ausführung
  • schnell sichtbare Inhalte (First Contentful Paint)
  • klare, kanonische URLs ohne Hashbangs

8.2 Pre-Rendering und statische Generierung

Bei Pre-Rendering werden Seiten im Vorfeld als statische HTML-Dateien erzeugt. Das ist besonders interessant, wenn du Produktseiten aus Feeds oder PIM-Daten generierst und diese regelmäßig, aber nicht minütlich, aktualisieren musst.

8.3 „Dynamic Rendering“ (für komplexe JavaScript-Sites)

Als Übergangslösung wurde von Google eine Zeit lang „Dynamic Rendering“ beschrieben: Nutzer bekommen die JavaScript-App, Bots bekommen eine vorgerenderte HTML-Version. Auch dieses Modell gilt zunehmend als Übergangstechnik, ist aber immer noch verbreitet.

9. AJAX Crawling Scheme vs. moderne JavaScript-SEO

Aspekt AJAX Crawling Scheme Moderne JavaScript-SEO
URL-Struktur Hashbang (#!), _escaped_fragment_ saubere, lesbare URLs ohne Hashbang
Rendering Snapshots für Crawler SSR, SSG, Hydration
Empfehlung veraltet, nicht mehr nutzen aktueller Best Practice

10. Praktische Empfehlungen für SEO und E-Commerce-Teams

10.1 Erkennen, ob AJAX Crawling Scheme im Einsatz ist

Prüfe dein aktuelles Setup mit Blick auf folgende Signale:

  • URLs mit #! (Hashbangs) in der Adresszeile
  • Indexierte Seiten mit _escaped_fragment_ im Google-Index
  • Serverregeln oder Framework-Configs, die Snapshots ausliefern

10.2 Migrationsschritte weg vom AJAX Crawling Scheme

Wenn du ein bestehendes System migrieren willst, sind folgende Schritte sinnvoll:

  • Einführung sauberer, kanonischer URLs ohne Hashbangs
  • 301-Weiterleitungen von alten _escaped_fragment_-URLs auf neue Ziel-URLs
  • Aufbau eines Rendering-Konzepts (SSR, SSG oder Hybrid)
  • Überprüfung der Indexierung mit der Google Search Console
  • Bereinigung von Canonicals und interner Verlinkung
[h2]11. AJAX Crawling Scheme und Content-Automatisierung im E-Commerce[/h2]

Für große Onlineshops mit tausenden SKUs ist ein klarer technischer Unterbau entscheidend, damit automatisiert erzeugter Content performen kann. Feed-basierte, KI-gestützte Textgenerierung entfaltet ihren vollen Effekt nur, wenn:

  • Produktseiten stabile, indexierbare URLs haben
  • keine veralteten Ajax-Workarounds wie das AJAX Crawling Scheme im Weg stehen
  • Shop, PIM und Content-Pipeline sauber aufeinander abgestimmt sind

Wenn du Content in Bulk aus Produktfeeds generierst, solltest du deshalb früh prüfen, ob noch Hashbang- oder _escaped_fragment_-Konstrukte existieren. Eine technische Bereinigung vor oder parallel zur Content-Skalierung verhindert, dass du hochwertigen Content auf problematische URL-Strukturen schreibst.

12. Häufige Fragen zum AJAX Crawling Scheme

Ist das AJAX Crawling Scheme noch aktuell?

Nein, das AJAX Crawling Scheme gilt seit 2018 offiziell als veraltet. Google kann JavaScript inzwischen selbst rendern und empfiehlt moderne Methoden wie serverseitiges Rendering oder statische Generierung statt Hashbang und _escaped_fragment_.

Wie erkenne ich, ob meine Website das AJAX Crawling Scheme verwendet?

Du erkennst die Verwendung des AJAX Crawling Schemes typischerweise an URLs mit Hashbangs wie #! in der Adresszeile oder an indexierten URLs mit dem Parameter _escaped_fragment_. Außerdem können Serverkonfigurationen oder alte SPA Frameworks explizite Regeln für Snapshot Auslieferung enthalten.

Schadet das AJAX Crawling Scheme meinen SEO Rankings?

Das AJAX Crawling Scheme schadet nicht automatisch den Rankings, ist aber technisch überholt und kann Probleme wie Duplicate Content, unklare URL Signale und verschwendetes Crawl Budget verursachen. In der Praxis ist eine Migration auf moderne JavaScript SEO Konzepte meist sinnvoll und reduziert Risiken.

Soll ich das AJAX Crawling Scheme in neuen Projekten noch einsetzen?

Nein, für neue Projekte solltest du das AJAX Crawling Scheme nicht mehr nutzen. Stattdessen empfiehlt sich ein Setup mit klassischer HTML Auslieferung, serverseitigem Rendering oder statischer Generierung, ergänzt um saubere JavaScript Funktionen ohne Hashbang basierte URL Muster.

Was ist der Unterschied zwischen AJAX Crawling Scheme und Dynamic Rendering?

Beim AJAX Crawling Scheme werden spezielle Hashbang URLs und der Parameter _escaped_fragment_ verwendet, um Snapshots auszuliefern. Dynamic Rendering hingegen liefert abhängig vom User Agent entweder die JavaScript Anwendung oder eine vorgerenderte HTML Version aus, ohne die spezielle URL Syntax des alten Schemas zu nutzen.

Wie migriere ich von einem AJAX Crawling Scheme Setup auf eine moderne Lösung?

Eine typische Migration umfasst das Entfernen von Hashbangs, das Abschalten des _escaped_fragment_ Handlings, die Einführung kanonischer URLs, das Einrichten von 301 Weiterleitungen auf neue Ziel URLs und die Implementierung von serverseitigem Rendering oder statischer Generierung, kombiniert mit Kontrolle der Indexierung in der Google Search Console.

Ist das AJAX Crawling Scheme noch relevant für E Commerce Shops?

Für neue Shops ist das AJAX Crawling Scheme nicht mehr relevant, für bestehende Projekte kann es aber weiterhin wichtig sein. Gerade ältere Shop Systeme oder Legacy SPAs nutzen oft noch Hashbang Muster. In solchen Fällen solltest du das Setup analysieren, technische Altlasten abbauen und auf moderne, suchmaschinenfreundliche Rendering Methoden umstellen.

13. Nächste Schritte: Du möchtest feed2content.ai ® kennenlernen?

Wenn deine technische Basis steht und du Produktdaten bereits sauber in Feeds, PIM oder Shop-Systemen organisiert hast, ist der nächste Hebel die skalierbare Erstellung von suchmaschinenoptimierten Produkttexten.

Sieh dir unsere Funktionen live an und teste feed2content.ai ® kostenfrei.

Kostenlos starten

Du hast noch Fragen?

Kontakt


Weitere Inhalte


Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*