ChatGPT, Claude, Gemini und Perplexity liefern direkte Antworten, statt Nutzer auf Websites zu schicken. Wer in diesen Antworten nicht vorkommt, existiert für einen wachsenden Teil der Zielgruppe schlicht nicht. Agent Experience Optimization (AXO) ist der systematische Ansatz, genau das zu ändern.
Inhalt
Was ist Agent Experience Optimization?
Agent Experience Optimization (AXO) beschreibt die systematische Optimierung von Web-Inhalten, damit KI-Agenten diese crawlen, verstehen, archivieren und in ihren Antworten zitieren können.
Der Begriff klingt technisch, die Idee dahinter ist einfach. Wenn jemand ChatGPT fragt "Welche Marketing-Agentur in München macht KI-gestützte Systeme?", dann durchsucht der Agent das Web, bewertet Quellen und formuliert eine Antwort. Ob deine Website in dieser Antwort vorkommt, hängt davon ab, wie gut sie für diesen Agenten aufbereitet ist.
AXO ist damit die konsequente Weiterentwicklung dessen, was wir unter AIO (AI Optimization) kennen. Nur geht es nicht mehr nur darum, in KI-Übersichten aufzutauchen. Es geht darum, dass autonome KI-Agenten deine Inhalte aktiv nutzen, weiterverarbeiten und zitieren.
Warum AXO jetzt relevant ist
Drei Entwicklungen treffen gleichzeitig aufeinander und machen AXO zum Pflichtthema für jedes Unternehmen mit Online-Präsenz.
1. KI-Agenten werden zum Standard-Suchkanal
Laut aktuellen Erhebungen generieren Google AI Overviews bereits 17,8 Prozent weniger Website-Aufrufe über die klassische Suche. Gleichzeitig wachsen die Nutzerzahlen von ChatGPT, Perplexity und Claude rasant. Der Trend ist eindeutig. Ein wachsender Teil der Suchanfragen wird nie mehr eine klassische Suchergebnisseite erreichen.
2. Agenten handeln autonom
Die nächste Generation von KI-Agenten sucht nicht nur Informationen. Sie vergleicht Anbieter, bucht Termine, füllt Formulare aus und trifft Vorauswahlen. Wenn deine Website für diese Agenten nicht navigierbar ist, fällst du aus dem Entscheidungsprozess raus, bevor ein Mensch überhaupt involviert wird.
3. Neue Protokolle schaffen Infrastruktur
Mit dem Model Context Protocol (MCP), llms.txt, agents.txt und NLWeb entstehen gerade die Standards, die das Zusammenspiel zwischen Websites und KI-Agenten regeln. Wer diese Standards früh implementiert, verschafft sich einen strukturellen Vorteil.
Von SEO über AIO zu AXO – Die Evolution der Sichtbarkeit
Die Entwicklung lässt sich in drei Phasen beschreiben.
Phase 1: SEO (Search Engine Optimization). Optimierung für Suchmaschinen, die Menschen zu Websites leiten. Ziel: Rankings, Klicks, Traffic. Die Währung: Position 1 bei Google.
Phase 2: AIO (AI Optimization). Optimierung für KI-gestützte Suchfunktionen wie Google AI Overviews. Ziel: In KI-generierten Zusammenfassungen als Quelle genannt werden. Die Währung: Zitationen in KI-Antworten.
Phase 3: AXO (Agent Experience Optimization). Optimierung für autonome KI-Agenten, die Websites nicht nur lesen, sondern aktiv damit interagieren. Ziel: Von Agenten als vertrauenswürdige Quelle genutzt und empfohlen werden. Die Währung: Agent-Referenzen und maschinenlesbare Verfügbarkeit.
AXO ersetzt SEO und AIO nicht. Es baut darauf auf. Wer gutes SEO macht, hat bereits ein solides Fundament. AXO fügt eine neue Ebene hinzu, die speziell auf die Bedürfnisse von KI-Agenten zugeschnitten ist.
Bei Admantics denken wir Markenstrategie deshalb immer mit allen drei Ebenen. Sichtbarkeit in der klassischen Suche, in KI-Übersichten und für autonome Agenten.
Die vier Kernprinzipien von AXO
1. Lesbare Struktur
KI-Agenten verarbeiten Inhalte hierarchisch. Das bedeutet: saubere Heading-Hierarchie (H1, H2, H3), logisch gegliederte Absätze, konsistentes HTML und klare semantische Auszeichnung. Keine verschachtelten Layouts, keine versteckten Inhalte hinter JavaScript-Accordions, die ein Agent nicht öffnen kann.
2. Zitierbare Fakten
Agenten müssen einzelne Aussagen extrahieren und zitieren können. Dafür brauchen sie Sätze, die für sich allein stehen können, kontextuell vollständig sind und idealerweise mit Quellenangaben oder Zeitstempeln versehen sind. Statt "Unser Ansatz hat sich bewährt" lieber "Seit 2024 setzen wir KI-gestützte Marketing-Systeme ein, die durchschnittlich 80% manuelle Arbeit einsparen."
3. Verlässliche Verfügbarkeit
Agenten besuchen deine Inhalte mehrfach. Stabile URLs, regelmäßige Updates, konsistente Seitenstrukturen. Kein Relaunch alle sechs Monate, der alle alten URLs zerstört. Keine dynamischen URLs mit Session-Parametern. Kein Geo-Blocking, das Cloud-basierte Agenten aussperrt.
4. Maschinenlesbare Schnittstellen
Das ist die neue Ebene, die AXO von AIO unterscheidet. Websites brauchen dedizierte Dateien und Endpunkte, über die Agenten strukturiert auf Inhalte zugreifen können. Dazu gehören llms.txt, Schema.org-Markup, MCP-Endpunkte und perspektivisch agents.txt.
Die technischen Bausteine von AXO
AXO ist kein einzelnes Tool. Es ist ein Zusammenspiel mehrerer Standards und Protokolle, die gerade entstehen. Hier die wichtigsten.
Model Context Protocol (MCP)
Das Model Context Protocol ist der wichtigste neue Standard im AXO-Ökosystem. Entwickelt von Anthropic und seit Dezember 2025 unter der Governance der Linux Foundation (Agentic AI Foundation), wird MCP von OpenAI, Google, Microsoft, AWS und Hunderten weiterer Unternehmen unterstützt.
MCP wird oft als "USB-C für KI" beschrieben. So wie USB-C eine einheitliche Verbindung zwischen Geräten geschaffen hat, schafft MCP eine einheitliche Verbindung zwischen KI-Modellen und externen Datenquellen, Tools und Services.
Was MCP für Websites bedeutet
Statt dass jeder KI-Agent eine eigene Integration für jede Website bauen muss, definiert MCP ein einheitliches Protokoll. Websites können MCP-Endpunkte bereitstellen, über die Agenten strukturiert Inhalte abfragen, Aktionen ausführen und Daten austauschen können.
Die Zahlen sprechen für sich: Über 97 Millionen monatliche SDK-Downloads, mehr als 10.000 aktive Server und nativer Client-Support in Claude, ChatGPT, Cursor, Gemini, Microsoft Copilot und VS Code.
MCP in der Praxis
Ein konkretes Beispiel: Microsofts NLWeb-Projekt nutzt MCP, um Websites in konversationelle KI-Anwendungen zu verwandeln. Eine E-Commerce-Seite kann über einen MCP-Endpunkt einem Agenten ermöglichen, Produkte zu suchen, zu vergleichen und Verfügbarkeiten zu prüfen. Ohne dass der Agent die gesamte Website crawlen muss.
Für die meisten Unternehmenswebsites ist die volle MCP-Integration noch Zukunftsmusik. Aber die Entwicklung zeigt klar, wohin die Reise geht. Wer jetzt die Grundlagen legt, hat später einen deutlichen Vorsprung.
llms.txt und llms-full.txt
Inspiriert von der robots.txt, ist llms.txt eine Markdown-Datei im Stammverzeichnis deiner Website, die KI-Modellen eine kompakte Übersicht über die wichtigsten Inhalte gibt.
Warum das wichtig ist
KI-Modelle können nicht deine gesamte Website auf einmal verarbeiten. Sie haben ein begrenztes Kontextfenster. llms.txt löst dieses Problem, indem es den Modellen sagt: "Das sind die 20 bis 50 wichtigsten Seiten, hier ist jeweils ein Satz Kontext, und hier sind die Links."
Die Praxis bestätigt den Nutzen. Über 780 Websites haben llms.txt bereits implementiert, darunter Cloudflare, Vercel, Coinbase, Anthropic und Stripe. Google hat llms.txt in sein Agent-to-Agent (A2A) Protokoll integriert. Daten von Profound zeigen, dass Modelle von Microsoft, OpenAI und anderen aktiv llms.txt und llms-full.txt crawlen und indexieren.
llms.txt vs. llms-full.txt
Es gibt zwei Varianten. Die llms.txt ist die kompakte Version, eine Art Inhaltsverzeichnis mit Kurzbeschreibungen und Links. Die llms-full.txt enthält den vollständigen Inhalt aller wichtigen Seiten in einer einzigen Markdown-Datei. Interessanterweise zeigen Analysen, dass KI-Modelle die llms-full.txt sogar häufiger abrufen als die Kurzversion.
Umsetzung
Die Implementierung ist unkompliziert. Eine einfache Textdatei, 20 bis 50 kuratierte Links mit Einzeilern, gehostet unter deiner-domain.de/llms.txt. Für WordPress gibt es Plugins wie "Website LLMs.txt" mit über 30.000 Installationen. Aufwand: ein bis vier Stunden. Risiko: keins.
agents.txt
Während llms.txt für Content-Discovery gedacht ist, geht agents.txt einen Schritt weiter. Es ist ein Standard für die Entdeckung von KI-Agent-Services und B2A-Diensten (Business-to-Agent).
Ähnlich wie robots.txt Suchmaschinen hilft, Website-Strukturen zu verstehen, ermöglicht agents.txt KI-Agenten, die verfügbaren Services und Interaktionsmöglichkeiten einer Website zu erkennen. Noch befindet sich agents.txt in einer frühen Phase, aber das Konzept zeigt die Richtung: Websites werden nicht nur gelesen, sondern als Service-Anbieter für Agenten behandelt.
NLWeb – Microsofts Vision für das Agent-ready Web
NLWeb ist ein Open-Source-Projekt von Microsoft, das Websites in konversationelle KI-Anwendungen verwandelt. Es kombiniert LLMs mit bestehenden Web-Standards wie Sitemaps, RSS-Feeds und Schema.org-Daten.
Das Besondere: Jede NLWeb-Installation funktioniert gleichzeitig als MCP-Server. Die Inhalte einer Website werden dadurch nicht nur für Menschen zugänglich, sondern auch für das gesamte KI-Agent-Ökosystem nutzbar.
NLWeb nutzt Embedding-Modelle, um Website-Inhalte in Vektoren umzuwandeln und in einer Vektor-Datenbank zu speichern. Wenn ein Agent eine Frage stellt, werden die relevantesten Inhalte blitzschnell gefunden und zurückgegeben. Das ist deutlich effizienter als klassisches Crawling.
Für Unternehmen, die bereits strukturierte Daten (Schema.org, Produktkataloge, FAQ-Inhalte) auf ihrer Website haben, ist NLWeb ein logischer nächster Schritt.
AXO vs. klassisches SEO – Die wichtigsten Unterschiede
| Kriterium | Klassisches SEO | Agent Experience Optimization (AXO) |
|---|---|---|
| Optimiert für | Suchmaschinen-Algorithmen | KI-Agenten (ChatGPT, Claude, Gemini, Perplexity) |
| Zielmetrik | Rankings, Klicks, Traffic | Zitationen, Agent-Referenzen, Interaktionsrate |
| Content-Anforderung | Keyword-optimiert, leserfreundlich | Maschinenlesbar, faktenbasiert, kontextuell vollständig |
| Technische Basis | Meta-Tags, Backlinks, Core Web Vitals | Schema.org, llms.txt, MCP-Endpunkte, strukturierte Daten |
| Erfolgsmessung | Google Search Console, Rankings | Zitationsrate in KI-Antworten, Agent-Traffic-Analyse |
| Content-Sprache | Marketing-orientiert, emotional | Faktisch klar, objektiv, zitierfähig |
| Update-Rhythmus | Nach Bedarf | Regelmäßig (Agenten bewerten Aktualität) |
AXO in der Praxis: So startest du
AXO muss nicht von heute auf morgen komplett umgesetzt werden. Es gibt einen sinnvollen Stufenplan.
Stufe 1: Grundlagen schaffen (sofort umsetzbar)
Prüfe deine robots.txt. Sind KI-Crawler wie GPTBot, ClaudeBot und GoogleOther zugelassen oder blockiert? Viele Websites blockieren KI-Crawler unbewusst über aggressive WAF-Regeln oder Cloudflare-Einstellungen.
Erstelle eine llms.txt. Kuratiere 20 bis 50 deiner wichtigsten Seiten mit Kurzbeschreibungen. Hoste die Datei unter deiner-domain.de/llms.txt.
Überprüfe deine Sitemap. Sie sollte aktuell sein und in der robots.txt referenziert werden.
Stufe 2: Content optimieren
Geh deine wichtigsten Seiten durch und prüfe: Sind die Fakten eigenständig zitierfähig? Steht die Heading-Hierarchie? Sind Aussagen mit konkreten Zahlen, Daten oder Quellenangaben belegt?
Baue FAQ-Bereiche ein, die echte Nutzerfragen beantworten. KI-Agenten greifen bevorzugt auf klar formulierte Frage-Antwort-Paare zurück.
Ergänze Schema.org-Markup, besonders für Unternehmens-Informationen, Dienstleistungen, FAQ und Artikel.
Stufe 3: Erweiterte Standards implementieren
Erstelle eine llms-full.txt mit dem vollständigen Content deiner Kernseiten.
Evaluiere, ob ein MCP-Endpunkt für dein Business sinnvoll ist. Für E-Commerce, SaaS oder Dienstleister mit Buchungsfunktion kann das ein echter Wettbewerbsvorteil sein.
Beobachte die Entwicklung von agents.txt und NLWeb. Beide Standards sind noch jung, werden aber in den nächsten Monaten an Bedeutung gewinnen.
Stufe 4: Messen und iterieren (fortlaufend)
Teste deine Website mit KI-Agenten. Frag ChatGPT, Claude und Perplexity nach deinem Unternehmen, deinen Dienstleistungen, deiner Branche. Wirst du zitiert? Sind die Informationen korrekt?
Tools wie SEMrush Enterprise AIO, Profounds GEO-Tracking oder Ahrefs Brand Radar ermöglichen mittlerweile die Messung von Markenerwähnungen in KI-Antworten, Zitationsfrequenz und Sentiment.
Fazit: AXO ist kein Trend, sondern der nächste logische Schritt
Die Suche verändert sich. Nicht irgendwann, sondern jetzt. KI-Agenten werden zur Schnittstelle zwischen Nutzern und dem Web. Unternehmen, die ihre Inhalte nur für menschliche Besucher und klassische Suchmaschinen optimieren, werden einen wachsenden Teil ihrer Zielgruppe nicht mehr erreichen.
AXO ist dabei kein Ersatz für gutes SEO. Es ist die notwendige Erweiterung. Die gute Nachricht: Vieles von dem, was AXO verlangt (klare Struktur, zitierbare Fakten, technische Sauberkeit), macht deine Website auch für Menschen besser.
Bei Admantics bauen wir Marketing-Systeme, die alle drei Ebenen abdecken: klassische Suchmaschinen, KI-Übersichten und autonome Agenten. Weil Sichtbarkeit in der KI-Ära mehr braucht als ein gutes Google-Ranking.