📋
Executive Summary: Klassisches SEO bleibt die Basis, wird aber durch GEO und LLMO ergänzt. Ziel: nicht mehr nur Ranking, sondern als verifizierte Quelle von KI zitiert werden. 80 % der Ressourcen sollten in Off-Model-Optimierung fließen.

1. Technisches Fundament: Grounding und RAG

Grounding reduziert KI-Halluzinationen, indem Antworten an reale Datenquellen gekoppelt werden. Dies geschieht meist über das Retrieval-Augmented Generation (RAG) Framework.

Der RAG-Ablauf

  1. Ein Nutzer stellt eine Frage.
  2. Ein Retrieval-System durchsucht Suchindizes (z. B. Bing oder Google).
  3. Die relevantesten Inhalte (Top 5–10 Content-Chunks) werden gesammelt.
  4. Diese Inhalte werden als Kontext an das LLM übergeben.
  5. Das LLM generiert eine Antwort und verlinkt auf die Originalquelle.

Eigenschaften bevorzugter Inhalte

Zitierfähige Einheiten sind Absätze mit 200–500 Wörtern, die isoliert verständlich sind. Statistiken erhöhen die KI-Sichtbarkeit um 22 %, Expertenzitate um 37 %. Das Retrieval-System nutzt Hybrid Retrieval: Kombination aus semantischer Suche (Vektor-Suche) und klassischem Keyword-Matching.

2. Strategischer Rahmen: On-Model vs. Off-Model

Dimension On-Model Off-Model
Ziel Beeinflussung des Modellwissens Optimierung für Retrieval
Kontrolle Indirekt (Wikipedia, PR, Reddit) Direkt (Website, Schema, Content)
Zeithorizont Monate bis Jahre Sofort bis Tage
Hebel Brand Building Crawlbarkeit & Semantik
Die große Umkehrung: Im klassischen SEO war On-Page-Optimierung der einfache Teil. In der KI-Suche ist der größte Hebel die Off-Model-Optimierung, da Unternehmen dort die volle Kontrolle über die maschinenlesbare Struktur ihrer Fakten haben.

3. Entitäten – Grundbausteine der KI-Suche

KI-Systeme arbeiten mit Entitäten: Personen, Marken, Produkte, Orte. Der Prozess der Entity Disambiguation hilft zu unterscheiden – klassisches Beispiel: „Apple" = Unternehmen oder Frucht.

Das EAV-E Muster für zitierfähige Inhalte

Um Halluzinationen zu reduzieren, sollten Inhalte nach dem EAV-E Muster strukturiert werden:

ElementBedeutungBeispiel
EntitySubjektHotel Alpenblick
AttributeEigenschaftPoollänge
ValueKonkreter Wert15 Meter
EvidenceQuelle/BelegLink zur Hotelseite

Maßnahmen für Entity-Optimierung

  • Markennamen konsequent ausschreiben – statt „Wir bieten" besser „Hotel Alpenblick bietet"
  • Präsenz auf mindestens vier Drittplattformen → erhöht Zitationswahrscheinlichkeit um 2,8×
  • Pflege von Wikidata und Google Knowledge Panel

4. Technische Optimierung und Crawling

Empfohlene robots.txt Strategie

Training-Bots blockieren – Such-Bots erlauben:

# Such-Bots erlauben (sorgen für Zitate in ChatGPT/Claude)
User-agent: OAI-SearchBot
Allow: /

User-agent: Claude-SearchBot
Allow: /

# Training-Bots blockieren
User-agent: GPTBot
Disallow: /

User-agent: ClaudeBot
Disallow: /

User-agent: Google-Extended
Disallow: /
⚠️
Kritische Warnung: Wer den OAI-SearchBot in der robots.txt blockiert, fliegt komplett aus ChatGPT Search. Blockiere das Training, aber niemals die Suche!

On-Page Anforderungen

  • Answer-First Prinzip: Jeder Abschnitt beginnt mit einer klaren Antwort, danach Details.
  • Server-Side Rendering: Viele KI-Crawler rendern kein JavaScript – wichtige Inhalte müssen im initialen HTML stehen.
  • Semantisches HTML: <main>, <article>, <time>

5. Structured Data & Schema Markup

Strukturierte Daten (JSON-LD) sind zentral für Maschinenlesbarkeit. LLMs erreichen mit Knowledge Graphs eine bis zu 300 % höhere Genauigkeit. Strukturierte Daten erhöhen die GPT-4-Genauigkeit von 16 % auf 54 % und ermöglichen +30 % mehr Klicks durch Rich Results.

Wichtige Schema-Typen

  • Organization: Unternehmensidentität, Adresse, Logo, Kontakt
  • Product: Name, Preis, Verfügbarkeit, SKU, GTIN, Versand, Rückgabe
  • FAQPage: Ermöglicht direkte Frage-Antwort-Extraktion
  • Article / BlogPosting: Für redaktionelle Inhalte mit Autor-Expertise (E-E-A-T)

Neue Standards: llms.txt

Neben robots.txt etabliert sich ein neuer Standard: Die llms.txt Datei im Root-Verzeichnis liefert KI-Agenten eine kuratierte, priorisierte Textversion der Website direkt in sauberem Markdown. llms-full.txt liefert den vollständigen strukturellen Kontext (z. B. API-Docs, Versand, Retouren).

6. Grounding Pages

Grounding Pages sind spezielle Seiten für LLMs, die sich deutlich von klassischen Landingpages unterscheiden:

MerkmalMarketing-LandingpageGrounding Page
SpracheEmotionalSachlich
StrukturVisuellFaktenreich
ZielKunden überzeugenFakten liefern
InhalteSuperlative, CTAEAV-E Chunks, Tabellen

7. Das Agentic Web – Die drei Stufen

Grounding ist nicht nur für die heutige KI-Suche relevant, sondern die Basis für das kommende Agentic Web:

  • Stufe 1 – Grounding (jetzt): KI findet und zitiert Inhalte.
  • Stufe 2 – Agentic Discovery: KI-Agenten durchsuchen Kataloge aktiv via APIs.
  • Stufe 3 – Agentic Commerce: Agenten vergleichen autonom und führen Checkout-Transaktionen direkt im Chat aus.
🎯
McKinsey Insight: Das Agentic Commerce Potenzial liegt bei 3–5 Billionen Dollar. Ohne Grounding in Stufe 1 existiert man für die autonomen Agenten in Stufe 3 schlichtweg nicht.

Die LLMO Action-Matrix

KategorieMaßnahmen
Quick Wins
Niedriger Aufwand, hohe Wirkung
robots.txt anpassen (Such-Bots erlauben) · Organization & Product Schema.org validieren · GA4 Referrer-Tracking (Regex) einrichten
Mid-Term
Mittlerer Aufwand
Grounding Pages aufbauen (EAV-E Struktur) · Server-Side Rendering garantieren · IndexNow integrieren · Entity-Monitoring aufsetzen (Otterly.ai)
Strategisch
Langfristig
Brand Building auf Drittplattformen & Wikidata · UCP/Agentic Readiness & Katalog-Feeds sichern