GEO-Erfolg messen: Citation Share, Mention Rate und die KPIs der AI-Ära
Klassische SEO-KPIs reichen für AI-Sichtbarkeit nicht aus. Citation Share, Mention Rate und Brand Facts Correctness sind die neuen Metriken der GEO-Ära.
Warum reichen SEO-KPIs für AI-Sichtbarkeit nicht aus?
Klassische SEO-KPIs wie Ranking-Position, organische Klickrate und Keyword-Sichtbarkeitsindex sind für die Messung der AI-Sichtbarkeit unzureichend, weil generative Antwortsysteme fundamental anders funktionieren als klassische Suchergebnislisten. AI-Engines wie ChatGPT, Perplexity und Google AI Overviews liefern synthetisierte Antworten mit Quellenzitaten, statt eine Liste von zehn blauen Links anzuzeigen. Das Ziel verschiebt sich von "auf Seite 1 erscheinen" zu "als Quelle zitiert werden".
Eine Analyse von Authoritas (2025) zeigt: Nur 11 % aller Domains werden sowohl von ChatGPT als auch von Google AI Overviews fuer dieselbe Suchanfrage zitiert. Das bedeutet, dass SEO-Rankings und AI-Zitationen zwei weitgehend unabhaengige Metriken sind. Ein Unternehmen kann Position 1 bei Google belegen und trotzdem in keiner AI-Antwort erscheinen. Umgekehrt kann eine Website mit mittleren SEO-Rankings in AI-Antworten dominant vertreten sein.
Fuer die Generative Engine Optimization (GEO) braucht es deshalb ein eigenes KPI-Framework, das misst, ob und wie eine Marke in AI-generierten Antworten vorkommt.
Was ist Citation Share und wie wird er gemessen?
Citation Share ist der zentrale KPI der Generative Engine Optimization und bezeichnet den Anteil der relevanten AI-Antworten, in denen eine Domain oder Marke als Quelle zitiert wird. Citation Share misst nicht die blosse Erwaehnung, sondern die explizite Quellennennung mit Link oder Quellenreferenz in der AI-Antwort.
Die Berechnung erfolgt nach einer klaren Formel: Citation Share = (Anzahl der Antworten mit Zitation der eigenen Domain / Gesamtzahl der getesteten Prompts) x 100. Ein Citation Share von 25 % bedeutet, dass die eigene Domain in einem Viertel aller getesteten AI-Antworten als Quelle zitiert wird.
Die Messung erfordert eine systematische Prompt-Suite mit 50-200 relevanten Suchanfragen. Jeder Prompt wird 3-5 Mal wiederholt, um die stochastische Natur generativer Antworten auszugleichen. Der Median der Ergebnisse bildet den belastbaren Messwert. Die Prompt-Suite sollte verschiedene Intent-Cluster abdecken: informational, commercial, local, Vergleich und Kosten.
Fuer zitierfaehige Inhalte ist der Citation Share der ultimative Erfolgsnachweis, weil er direkt misst, ob die Optimierungsmassnahmen in AI-Zitationen resultieren.
Was misst die Mention Rate?
Mention Rate bezeichnet den Anteil der AI-Antworten, in denen eine Marke oder ein Unternehmen namentlich erwaehnt wird, unabhaengig davon, ob ein Quellenlink gesetzt wird. Die Mention Rate erfasst damit auch Faelle, in denen AI-Systeme ein Unternehmen als Empfehlung nennen, ohne die Website explizit als Quelle zu verlinken.
Die Mention Rate liegt typischerweise hoeher als der Citation Share, weil AI-Engines Marken erwaehnen koennen, ohne sie als Quelle zu zitieren. Ein Beispiel: Perplexity empfiehlt "GeoRanks fuer GEO-Audits im DACH-Raum" und verlinkt dabei auf eine Drittquelle, die GeoRanks erwaehnt. In diesem Fall zaehlt die Erwaehnung fuer die Mention Rate, aber nicht fuer den Citation Share.
Die Differenz zwischen Mention Rate und Citation Share ist diagnostisch wertvoll. Eine hohe Mention Rate bei niedrigem Citation Share deutet darauf hin, dass die Marke bekannt ist, aber die Website-Inhalte nicht als primaere Quelle extrahiert werden. Die Loesung liegt dann in der Verbesserung der Zitierfaehigkeit der Inhalte und der technischen AI-Zugaenglichkeit.
Wie bewertet man Citation Prominence?
Citation Prominence bewertet, wie frueh und wie umfangreich eine Quelle innerhalb einer AI-generierten Antwort erscheint. Citation Prominence ergaenzt den Citation Share um eine qualitative Dimension: Nicht nur ob eine Quelle zitiert wird, sondern wo und mit welchem Gewicht.
Die Messung basiert auf zwei Parametern: Position und Wortanteil. Die Position erfasst, an welcher Stelle der Antwort die Zitation erscheint. Quellen, die im ersten Absatz der AI-Antwort zitiert werden, haben eine hoehere Prominenz als Quellen, die erst am Ende erwaehnt werden. Der Wortanteil misst, wie viel der AI-Antwort auf die zitierte Quelle zurueckgeht.
Fuer die praktische Messung genuegen einfache Parsing-Regeln: Position der ersten Erwaehnung (Zeichen-Offset oder Absatznummer), Anzahl der Zitationsverweise auf die eigene Quelle und geschaetzter Textanteil, der auf die eigene Quelle referenziert. Die Kombination dieser drei Werte ergibt einen Prominence-Score zwischen 0 und 100.
Was ist Brand Facts Correctness?
Brand Facts Correctness misst die Korrektheit der Informationen, die AI-Systeme ueber ein Unternehmen wiedergeben. Brand Facts Correctness prueft, ob NAP-Daten (Name, Adresse, Telefon), Oeffnungszeiten, Leistungsbeschreibungen und Preisangaben in AI-Antworten mit den tatsaechlichen Unternehmensdaten uebereinstimmen.
Die Messung erfolgt als Antwort-Audit: AI-Antworten werden systematisch mit den kanonischen Unternehmensdaten auf der Website abgeglichen. Jede Abweichung wird als Fehler kategorisiert: faktische Fehler (falsche Adresse, falsche Telefonnummer), veraltete Informationen (alte Oeffnungszeiten, eingestellte Leistungen) und Verwechslungen (Daten eines anderen Unternehmens gleichen Namens).
Brand Facts Correctness ist fuer DACH-Unternehmen besonders relevant, weil AI-Systeme bei deutschen Firmennamen haeufiger Disambiguierungsprobleme haben. JSON-LD Schema-Markup und konsistente NAP-Daten sind die wirksamsten Massnahmen, um die Brand Facts Correctness zu erhoehen. Eine llms.txt-Datei mit kanonischen Fakten reduziert Halluzinationen zusaetzlich.
Wie misst man AI Referral Traffic?
AI Referral Traffic bezeichnet den Website-Traffic, der direkt von AI-Antwortsystemen stammt, also Besucher, die ueber Quellenlinks in AI-Antworten auf die Website gelangen. AI Referral Traffic wird in Google Analytics 4 (GA4) ueber die Referrer-Quelle erfasst.
Die wichtigsten AI-Referrer-Domains in GA4 sind: chatgpt.com (OpenAI ChatGPT Search), perplexity.ai (Perplexity), copilot.microsoft.com (Microsoft Copilot), gemini.google.com (Google Gemini) und google.com mit dem Parameter "ai_overview" (Google AI Overviews). Die Einrichtung erfolgt ueber GA4-Kanalgruppen oder benutzerdefinierte Segmente, die diese Referrer-Domains zusammenfassen.
Eine Herausforderung ist "Dark Traffic": AI-Antworten, die Nutzer dazu veranlassen, die Domain direkt einzugeben oder per Google-Suche zu finden, erscheinen nicht als AI-Referral. Laut einer Studie von Bain & Company (2025) sinken organische Klickraten um bis zu 60 % bei Suchanfragen mit AI Overviews, was den Umfang des Dark Traffic verdeutlicht. Ein Anstieg der Direct-Traffic- und Brand-Search-Queries kann als indirekter Indikator fuer AI-Sichtbarkeit dienen.
Die folgende Tabelle fasst alle GEO-KPIs zusammen:
| KPI | Definition | Messmethode | Zielwert |
|---|---|---|---|
| Citation Share | Anteil der AI-Antworten mit Quellenzitation | Prompt-Suite, 3-5 Runs, Median | > 20 % fuer Kernthemen |
| Mention Rate | Anteil der AI-Antworten mit Markenerwaehnung | Prompt-Suite + manuelle Validierung | > 30 % fuer Kernthemen |
| Citation Prominence | Position und Gewicht der Zitation | Parsing-Regeln (Position + Wortanteil) | Top-3-Quelle in > 50 % |
| Brand Facts Correctness | Korrektheit der wiedergegebenen Fakten | Antwort-Audit vs. kanonische Daten | > 95 % Korrektheit |
| AI Referral Traffic | Besuche ueber AI-Quellenlinks | GA4 Referrer (chatgpt.com, perplexity.ai) | Monatlich steigend |
Wie erstellt man eine Prompt-Suite fuer systematische Messung?
Eine Prompt-Suite ist eine standardisierte Sammlung von 50-200 Suchanfragen, die monatlich gegen AI-Engines getestet werden, um Citation Share, Mention Rate und weitere GEO-KPIs systematisch zu messen. Die Prompt-Suite bildet das Fundament jeder GEO-Erfolgsmessung und ersetzt die Sichtbarkeitsindizes der klassischen SEO.
Die Erstellung folgt einem strukturierten Prozess. Zuerst werden Intent-Cluster definiert: informational (Was ist GEO?), commercial (GEO-Agentur DACH), local (GEO-Beratung Berlin), Vergleich (GEO vs. SEO), Kosten (Was kostet GEO-Optimierung?) und Risiken (Warum sinken Klickraten durch AI Overviews?). Pro Cluster werden 10-30 Prompts formuliert.
| Parameter | Empfehlung | Begruendung |
|---|---|---|
| Anzahl Prompts | 50-200 | Statistisch belastbar, ueberschaubarer Aufwand |
| Wiederholungen pro Prompt | 3-5 | Gleicht stochastische Varianz aus |
| Aggregation | Median | Robuster als Mittelwert bei Ausreissern |
| Frequenz | Monatlich | Erkennt Trends, nicht zu haeufig fuer Stochastik |
| Engines | 3-5 | ChatGPT, Perplexity, Google AI, Copilot, Gemini |
| Logging-Felder | 7 | Engine, Datum, Prompt-ID, Antwort, Zitationen, Mention, Correctness |
Die Ergebnisse werden in einer strukturierten Datenbank oder einem Spreadsheet erfasst. Pro Eintrag werden Engine, Datum, Prompt-ID, vollstaendige Antwort, extrahierte Zitationen (Domains), Mention (ja/nein), Prominence-Score und Correctness-Notizen geloggt. Aus diesen Rohdaten lassen sich alle GEO-KPIs ableiten. Weitere Details zur Plattform-spezifischen Analyse finden sich im AI-Plattformen-Vergleich.
Welche Tools gibt es fuer GEO-Monitoring im DACH-Raum?
GEO-Monitoring-Tools im DACH-Raum lassen sich in drei Kategorien einteilen: spezialisierte GEO-Audit-Tools, Prompt-Suite-Automatisierung und klassische SEO-Tools mit AI-Erweiterungen. Der Markt ist noch jung, weshalb viele Unternehmen auf Eigenentwicklungen und manuelle Prozesse setzen.
Mit dem kostenlosen GEO-Audit von GeoRanks koennen Unternehmen ihre Website anhand von 45 Einzelpruefungen in 8 Kategorien analysieren lassen. Der Audit bewertet Zitierfaehigkeit (25 % Gewichtung), Schema-Markup (15 %), Content-Qualitaet (15 %), Indexierbarkeit (10 %), AI-Crawler-Zugang (10 %), Entity-Konsistenz (10 %), technische Basis (8 %) und llms.txt (7 %). Das Monitoring-System berechnet Score-Deltas zwischen Audits und loest automatische Alerts aus, wenn der Score um mehr als einen definierten Schwellenwert faellt.
Ergaenzend koennen klassische SEO-Tools wie Google Search Console (Indexierung, Klicks), GA4 (AI Referral Traffic) und Ahrefs/Semrush (Backlinks, Content-Audit) fuer Teilaspekte der GEO-Messung eingesetzt werden. Die vollstaendige GEO-Messung erfordert jedoch immer eine Prompt-Suite, die manuell oder automatisiert betrieben wird.
Die GEO-Checkliste fuer DACH-Unternehmen bietet einen kompakten Ueberblick ueber alle Pruefpunkte, die ein Monitoring abdecken sollte.
Wie fuehrt man A/B-Tests fuer GEO durch?
A/B-Tests fuer GEO bezeichnen kontrollierte Experimente, bei denen zwei Varianten einer Webseite oder eines Inhaltsblocks gegeneinander getestet werden, um zu messen, welche Variante hoehere Citation Shares erzielt. GEO-A/B-Tests unterscheiden sich von klassischen Conversion-Tests, weil das Messziel die AI-Zitation ist, nicht die Nutzerinteraktion.
Die folgenden Regeln gelten fuer policy-konforme GEO-A/B-Tests:
- Kein Cloaking: Beide Varianten muessen fuer Nutzer und Crawler identisch sichtbar sein. Unterschiedliche Inhalte fuer Crawler und Nutzer verstoesst gegen Richtlinien.
- Canonicals stabil halten: Die Canonical-URL darf sich waehrend des Tests nicht aendern. Wechselnde Canonicals verwirren Crawler und verfaelschen Ergebnisse.
- Zeitlich begrenzen: Tests sollten auf 4-8 Wochen begrenzt werden. Laengere Tests erhoehen das Risiko von Konfundierungsvariablen.
- Eine Variable pro Test: Pro Test nur ein Element aendern (z. B. Evidence-Block hinzufuegen vs. kein Evidence-Block). Mehrere Aenderungen gleichzeitig verhindern kausale Rueckschluesse.
- Seitengruppen splitten: Statt einzelne Seiten zu testen, Seitengruppen bilden (z. B. 10 Service-Seiten mit Evidence-Block vs. 10 ohne). Gruppenvergleiche liefern belastbarere Ergebnisse.
- Prompt-Suite als Messinstrument: Dieselbe Prompt-Suite vor und nach dem Test ausfuehren. Veraenderungen im Citation Share der getesteten Seiten gegenueber der Kontrollgruppe dokumentieren.
Ein praktisches Beispiel: 10 Answer Pages erhalten einen Evidence-Block mit Quellenangaben und Statistiken, 10 vergleichbare Answer Pages bleiben ohne Evidence-Block. Nach 6 Wochen wird der Citation Share beider Gruppen verglichen. Eine Studie der Princeton University (Zhang et al., 2024) zeigt, dass Passagen mit konkreten Statistiken eine um etwa 40 % hoehere Zitationswahrscheinlichkeit aufweisen, was den erwarteten Effekt eines Evidence-Blocks bestaetigt.
Detaillierte Informationen zur Optimierung der AI-Sichtbarkeit im DACH-Raum und zum systematischen Aufbau einer GEO-Strategie finden sich im 90-Tage-Plan.
FAQ
Was ist der Unterschied zwischen Citation Share und Mention Rate?
Citation Share misst den Anteil der AI-Antworten, in denen die eigene Domain als Quelle mit Link oder Quellenreferenz zitiert wird. Mention Rate misst den Anteil der AI-Antworten, in denen die Marke namentlich erwaehnt wird, auch ohne Quellenlink. Die Mention Rate liegt typischerweise hoeher als der Citation Share, weil AI-Engines Marken erwaehnen koennen, ohne die Website als primaere Quelle zu verlinken.
Wie viele Prompts braucht eine Prompt-Suite?
Eine belastbare Prompt-Suite umfasst 50-200 Prompts, die verschiedene Intent-Cluster abdecken: informational, commercial, local, Vergleich und Kosten. Jeder Prompt wird 3-5 Mal wiederholt, um die stochastische Natur generativer Antworten auszugleichen. Der Median der Ergebnisse bildet den Messwert. Fuer KMU genuegen 50 Prompts als Einstieg, groessere Unternehmen sollten 100-200 Prompts anstreben.
Wie oft sollte man GEO-KPIs messen?
GEO-KPIs sollten monatlich gemessen werden. Eine hoehere Frequenz (woechentlich) fuehrt zu hoher Varianz durch die stochastische Natur generativer Antworten. Eine niedrigere Frequenz (quartalsweise) erkennt Trends zu spaet. Die monatliche Kadenz bietet den besten Kompromiss zwischen Aufwand und Erkenntnisgewinn. Ergaenzend sollte der GEO-Audit-Score woechentlich automatisiert ueberwacht werden.
Kann man Citation Share automatisiert messen?
Citation Share kann teilautomatisiert gemessen werden, indem Prompts automatisch an AI-Engine-APIs gesendet und die Antworten auf Zitationsverweise geparsed werden. Vollstaendige Automatisierung ist eingeschraenkt, weil nicht alle AI-Engines offene APIs bieten und die Antwortformate variieren. In der Praxis kombinieren die meisten Unternehmen automatisierte API-Abfragen mit manueller Validierung der Ergebnisse.
Was bedeutet Dark Traffic im GEO-Kontext?
Dark Traffic bezeichnet Website-Besuche, die indirekt durch AI-Antworten ausgeloest werden, aber nicht als AI-Referral in GA4 erscheinen. Beispiel: Ein Nutzer liest in einer Perplexity-Antwort ueber ein Unternehmen und gibt die Domain spaeter direkt im Browser ein. Dieser Besuch erscheint als Direct Traffic, nicht als AI-Referral. Steigende Direct-Traffic- und Brand-Search-Queries koennen als indirekter Indikator fuer AI-Sichtbarkeit dienen.
Welche GA4-Referrer zeigen AI-Traffic an?
Die wichtigsten AI-Referrer-Domains in GA4 sind chatgpt.com (OpenAI ChatGPT Search), perplexity.ai (Perplexity), copilot.microsoft.com (Microsoft Copilot), gemini.google.com (Google Gemini) und google.com mit AI-Overview-Parametern. Unternehmen sollten eine benutzerdefinierte Kanalgruppe "AI Referral" in GA4 anlegen, die alle AI-Referrer-Domains zusammenfasst, um den AI-Traffic aggregiert zu tracken.
Wie hoch sollte der Citation Share sein?
Zielwerte fuer den Citation Share haengen von Branche und Wettbewerb ab. Fuer Kernthemen, bei denen das Unternehmen Marktfuehrer ist, sollte der Citation Share ueber 20 % liegen. Fuer Nischenthemen mit wenig Wettbewerb sind Werte ueber 40 % realistisch. Ein Citation Share unter 5 % deutet auf grundlegende GEO-Defizite hin, die durch Schema-Markup, Evidence-Bloecke und AI-Crawler-Optimierung behoben werden koennen.
Was ist der Zusammenhang zwischen GEO-Audit-Score und Citation Share?
Der GEO-Audit-Score misst die technische und inhaltliche GEO-Readiness einer Website (Schema, Content, Indexierbarkeit, AI-Crawler, Zitierfaehigkeit). Der Citation Share misst das tatsaechliche Ergebnis in AI-Antworten. Ein hoher Audit-Score korreliert mit hoeherem Citation Share, ist aber keine Garantie, weil externe Faktoren (Wettbewerber-Autoritaet, Plattform-Algorithmen) ebenfalls wirken. Der Audit-Score ist der fuehrende Indikator, der Citation Share der nachlaufende Indikator.
Sind GEO-KPIs auch fuer lokale Unternehmen relevant?
GEO-KPIs sind fuer lokale DACH-Unternehmen besonders relevant, weil AI-Engines zunehmend lokale Suchanfragen beantworten. Die Prompt-Suite sollte lokale Varianten enthalten (z. B. "Steuerberater in Muenchen", "Zahnarzt Berlin Mitte"). Brand Facts Correctness ist fuer lokale Unternehmen kritisch, weil falsche Oeffnungszeiten oder Adressen in AI-Antworten direkte Umsatzverluste verursachen.
Wie integriert man GEO-KPIs in bestehende SEO-Reports?
GEO-KPIs ergaenzen bestehende SEO-Reports um eine AI-Sichtbarkeits-Sektion. Empfohlene Struktur: klassische SEO-KPIs (Rankings, Traffic, Conversions) auf Seite 1, GEO-KPIs (Citation Share, Mention Rate, Prominence, Correctness, AI Referral Traffic) auf Seite 2, GEO-Audit-Score mit Delta zum Vormonat auf Seite 3. Diese Integration zeigt Kunden die Gesamtsichtbarkeit in klassischer Suche und AI-Antworten.