14 Minuten Lesezeit
KI-Sichtbarkeit beschreibt, ob deine Website in den Antworten von Google AI Overviews, ChatGPT, Claude und Perplexity als Quelle zitiert oder erwähnt wird. Google greift in Echtzeit auf Webinhalte zu, ChatGPT kombiniert Trainingswissen mit Websuche, Claude arbeitet überwiegend mit Trainingsdaten. Jede Plattform folgt eigenen Regeln.
SEO ist die Pflichtgrundlage: Über 99 Prozent der in Google AI Overviews zitierten Inhalte stammen aus Seiten in den Top 10. Zusätzlich entscheiden Struktur (klare Antwort-Bausteine, FAQ-Blöcke, sichtbare Autorenschaft) und technischer Zugang (robots.txt, Hoster-Einstellungen, Sicherheits-Plugins) darüber, ob KI-Systeme deine Inhalte überhaupt lesen und zitieren können. Laut einer Studie blockieren 33 Prozent der deutschen Websites KI-Bots auf Server-Ebene, ohne dass die Betreiber davon wissen.
Google hat im April 2026 auf der Search Central Live in Toronto einen Satz gesagt, der seitdem durch die SEO-Welt geistert: „Good SEO is good GEO.“ Gutes SEO sei gleichzeitig gute Optimierung für die KI-Suche.
Das stimmt. Aber es ist nur die halbe Wahrheit.
Denn die KI-Suche ist nicht nur Google. ChatGPT, Claude und Perplexity funktionieren nach eigenen Regeln. Jede Plattform entscheidet anders, welche Inhalte sie zitiert, welche sie nur erwähnt und welche sie komplett ignoriert. Wenn du nur Google im Blick hast, verpasst du einen wachsenden Teil deiner Zielgruppe.
KI-Sichtbarkeit bedeutet, dass deine Website nicht nur in den Google-Suchergebnissen auftaucht, sondern auch in den Antworten von ChatGPT, Claude und Perplexity als Quelle genannt wird. SEO bleibt die Grundlage. Aber jede Plattform hat eigene Regeln dafür, welche Inhalte sie heranzieht.
In diesem Artikel zeige ich dir die konkreten Unterschiede zwischen den Plattformen und was du an deiner Website ändern kannst, damit sie bei Google und KI sichtbar wird.
- Was ist der Unterschied zwischen SEO und GEO?
- Drei Plattform-Typen: Wie Google, ChatGPT und Claude deine Inhalte finden
- Was Google auf der Search Central Live über GEO gesagt hat
- Was die 100 meistzitierten Webseiten gemeinsam haben
- Warum deine Website für KI-Bots unsichtbar sein kann, ohne dass du es merkst
- Was du jetzt konkret tun kannst: Checkliste für deine Website
- Meine Einschätzung: Was bedeutet das für deine Website?
- Was du mitnimmst
- Kati Wolf
- Newsletter SEO-Snacks

Was ist der Unterschied zwischen SEO und GEO?
SEO (Search Engine Optimization) optimiert deine Website für Rankings in den Google-Suchergebnissen. Du willst auf Seite 1 erscheinen, damit jemand auf dein Ergebnis klickt.
GEO (Generative Engine Optimization) optimiert deine Inhalte dafür, dass KI-Systeme sie als Quelle nutzen. Du willst in der KI-Antwort stehen, nicht nur in der Linkliste darunter.
Zwei Begriffe sind dabei zentral:
- Eine Citation ist ein klickbarer Quellenlink. Die KI zeigt ihre Antwort und verlinkt darunter auf deine Website als Quelle. Das ist das, was dir Traffic bringt.
- Eine Mention ist eine Markennennung im Text der KI-Antwort, ohne Link. Dein Name taucht auf, aber niemand kann darauf klicken. Das stärkt deine Bekanntheit, bringt aber keinen direkten Besuch.
Warum der Unterschied wichtig ist: Laut einer SISTRIX-Analyse liefert ChatGPT nur in rund 6 Prozent aller Antworten einen klickbaren Link. Bei Googles Gemini sind es 23 Prozent. DeepSeek liegt bei 11 Prozent. Das heißt: Bei ChatGPT geht es weniger um Klicks und mehr um Markenpräsenz. Bei Google AI Overviews hast du bessere Chancen auf tatsächlichen Traffic.
Und noch eine Zahl, die zeigt, warum SEO weiterhin Pflicht ist: Über 99 Prozent der Inhalte, die in Google AI Overviews zitiert werden, stammen von Seiten, die bei Google in den Top 10 ranken. Ohne SEO-Grundlage funktioniert GEO nicht. Was genau diese Grundlagen sind und wie SEO und KI-Suche zusammenspielen, erkläre ich in meinem Leitartikel SEO für Google und KI-Suche: Grundlagen und Praxis.
Drei Plattform-Typen: Wie Google, ChatGPT und Claude deine Inhalte finden
Das ist die wichtigste Unterscheidung, wenn du verstehen willst, wo du ansetzen kannst. Es gibt drei Typen von KI-Systemen, und jeder funktioniert anders.
Suchbasierte Systeme: Google AI Overviews und Perplexity
Diese Systeme greifen in Echtzeit auf aktuelle Webinhalte zu. Wenn du eine Frage stellst, sucht das System im Web, sammelt relevante Seiten und fasst die Antwort zusammen.
Was das für dich bedeutet: Deine SEO-Grundlagen wirken hier direkt. Wenn deine Seite bei Google gut rankt, hast du gute Chancen, auch in AI Overviews zitiert zu werden. Du hast also direkten Einfluss. Was AI Overviews genau sind und wie du deine Inhalte dafür optimierst, findest du in meinem Artikel Google AI Overviews: Was bedeutet das für dein SEO?
Trainingsbasierte Systeme: Claude
Claude (von Anthropic) arbeitet vor allem mit dem Wissen aus seinen Trainingsdaten, also mit Inhalten, die das System zu einem bestimmten Zeitpunkt aus dem Web gelernt hat. Erst in der neuesten Version gibt es eine ergänzende Websuche.
Was das für dich bedeutet: Du beeinflusst Claude nur indirekt und langfristig. Dein Content muss im offenen Web gut sichtbar sein, auf relevanten Plattformen erwähnt werden und thematische Autorität aufbauen. Das ist eher ein Marathon als ein Sprint.
Hybride Systeme: ChatGPT
ChatGPT verbindet Trainingswissen mit aktueller Websuche. Je nach Anfrage entscheidet das System, ob es aus seinem Wissen antwortet oder aktiv im Web sucht. Wie ChatGPT als Suchsystem funktioniert und was das für deine Website bedeutet, habe ich in einem eigenen Artikel über ChatGPT als Suchsystem ausführlich erklärt.
Was das für dich bedeutet: Beides zählt. Dein langfristiger Markenaufbau und deine aktuelle SEO-Arbeit spielen zusammen. ChatGPT hat mittlerweile über 1,7 Milliarden Besuche pro Monat. Wer dort nicht auftaucht, wird für einen wachsenden Teil der Suchenden unsichtbar.
Was heißt das in der Praxis?
Bei suchbasierten Systemen hast du den direktesten Hebel: SEO machen, Inhalte strukturieren, technisch sauber aufstellen. Bei trainingsbasierten Systemen zählt, wie präsent deine Marke insgesamt im Web ist. Bei hybriden Systemen brauchst du beides.
Was Google auf der Search Central Live über GEO gesagt hat
Im April 2026 hat Google auf der Search Central Live in Toronto vier Empfehlungen gegeben, wie du für die KI-Suche optimieren kannst:
- Befolge die SEO-Grundlagen.
- Nutze strukturierte Daten.
- Sorge für eine gute Nutzererfahrung.
- Liefere Non-Commodity-Inhalte, also Inhalte, die nicht austauschbar sind.
Der vierte Punkt ist der entscheidende. Google definiert Non-Commodity-Content über drei Merkmale: Er ist einzigartig, weil er Standpunkte oder Informationen bietet, die andere nicht haben. Er ist spezifisch, weil er konkrete Fälle behandelt statt allgemeiner Regeln. Und er ist authentisch, weil er echtes Wissen oder Erfahrung aus erster Hand zeigt.
Was das für dich als Coach und Selbstständige heißt
Ein Artikel „5 SEO-Tipps für Anfänger“ ist Commodity-Content. Den gibt es hundertfach. Austauschbar.
Ein Artikel, in dem du beschreibst, wie du einer Kundin in drei Stunden gezeigt hast, welche Keywords sie realistisch besetzen kann und was dabei herauskam, ist Non-Commodity. Den gibt es nur einmal. Von dir.
Google hat auf derselben Veranstaltung auch mit einigen Mythen aufgeräumt: Du musst deine Texte nicht speziell für KI in kleine Stücke zerlegen. Du brauchst keine konversationellen Keywords. Und Überschriften schreibst du für Menschen, nicht für die KI.
Meine Einschätzung: Wo Google zu kurz greift
Ich finde Googles Empfehlungen richtig. Aber sie gelten vor allem für Google selbst.
Was Google zum Beispiel nicht erwähnt: Andere KI-Bots führen kein JavaScript aus. Wenn deine Inhalte nur per JavaScript geladen werden, sieht Google sie zwar (Googlebot rendert JavaScript), aber ChatGPT und Claude sehen nur leeren HTML-Code. Deine Inhalte sind für sie unsichtbar.
Google spricht auch nicht über das Thema Bot-Zugang. Für Google ist das kein Problem, denn Googlebot hat überall Zugang. Aber GPTBot und ClaudeBot werden von vielen Hostern und Sicherheitssystemen blockiert. Dazu komme ich gleich.
Was die 100 meistzitierten Webseiten gemeinsam haben
SISTRIX hat die 100 Webseiten analysiert, die im Google AI Mode am häufigsten als Quelle zitiert werden. Darunter Gesundheitsportale wie die Cleveland Clinic, Tech-Support von Microsoft und Vergleichsportale wie CNET. Völlig unterschiedliche Branchen, aber ein gemeinsames Muster.
Die Gemeinsamkeit ist nicht das Budget und nicht das Thema. Es ist die Struktur.
Die Analyse zeigt drei Säulen, auf denen KI-zitierfähige Inhalte stehen:
- Erstens Antwortzentrierung: Die Inhalte bestehen aus klar abgegrenzten Antwort-Bausteinen. Jeder Abschnitt funktioniert als eigenständige Antwort, die eine KI direkt übernehmen kann. Listen, Schritt-für-Schritt-Anleitungen und FAQ-Blöcke tauchen bei über 80 Prozent der meistzitierten Seiten auf.
- Zweitens Autorität und Aktualität: E-E-A-T (Experience, Expertise, Authoritativeness, Trust), also Erfahrung, Expertise, Autorität und Vertrauen, ist kein abstraktes Konzept. Auf den meistzitierten Seiten ist immer erkennbar, wer den Inhalt geschrieben hat. Der Name steht da, die Erfahrung ist sichtbar, das Datum ist aktuell.
- Drittens Maschinenlesbarkeit: Saubere HTML-Struktur mit klarer Überschriften-Hierarchie, eindeutigen Anker-Links und einem Inhaltsverzeichnis, das exakt mit den Textabschnitten verknüpft ist.
Du brauchst kein riesiges Budget, um das umzusetzen. Du brauchst saubere Struktur. Und die kannst du als Selbstständige selbst aufbauen.
Warum deine Website für KI-Bots unsichtbar sein kann, ohne dass du es merkst
Das ist der Punkt, den fast alle Artikel zu diesem Thema übersehen. Du kannst deine Inhalte perfekt strukturieren, Non-Commodity-Content liefern und alles richtig machen. Und trotzdem taucht deine Website in ChatGPT und Claude nicht auf. Der Grund: Die KI-Bots kommen gar nicht erst auf deine Seite.
Drei Stellen, an denen der Zugang blockiert sein kann
1. Dein Hoster sperrt KI-Bots auf Server-Ebene.
Eine Studie von SEOSOON aus dem März 2026 hat 1.444 deutsche Websites geprüft. Das Ergebnis: 33 Prozent blockieren KI-Bots auf Server-Ebene, ohne dass die Betreiber davon wissen. Bei kleinen Websites auf Shared Hosting liegt die Rate sogar bei 41 Prozent. Das trifft genau die Gruppe, in der die meisten Selbstständigen sind.
Der Grund: Hosting-Provider wie IONOS blockieren bestimmte KI-Crawler auf ihren Shared-Hosting-Paketen, weil die Serverlast durch die vielen KI-Bots gestiegen ist. IONOS hat das auf Anfrage von SEO Südwest bestätigt. GPTBot und ClaudeBot erhalten dort einen HTTP-Fehler 429 („too many requests“), noch bevor sie die robots.txt lesen können.
Besonders betroffen sind laut der Studie Hetzner (72,7 Prozent serverseitige Blockierung) und Host Europe (63,6 Prozent). Bei Google Cloud dagegen 0 Prozent Server-Blocking.
Das Problem: Du merkst davon nichts. Deine Website funktioniert im Browser einwandfrei. Aber die KI-Bots sehen nur eine Fehlermeldung.
2. Dein Sicherheits-Plugin stuft KI-Bots als Bedrohung ein.
Wordfence, iThemes Security und ähnliche WordPress-Plugins haben oft Bot-Listen, die GPTBot und ClaudeBot als „Bad Bots“ einstufen. Das war 2024 vielleicht sinnvoll, als KI-Crawler noch hauptsächlich Trainingsdaten sammelten. Heute bedeutet es, dass du in ChatGPT und Claude unsichtbar bist.
3. Cloudflare blockiert KI-Bots standardmäßig.
Cloudflare, das viele Websites als Schutzschicht nutzen, hat eine Funktion namens „Block AI Scrapers and Crawlers“. Bei Neukunden ist diese Funktion oft standardmäßig aktiviert. Ein Klick in den Cloudflare-Einstellungen unter Security > Bots, und alle KI-Bots sind ausgesperrt.
Was bei Baukastensystemen gilt
Wenn du deine Website mit einem Baukasten gebaut hast, bist du von den Einstellungen des Anbieters abhängig. Welches System für dich langfristig besser passt, habe ich in meinem Artikel WordPress oder Webbaukasten: Was passt wirklich zu dir? aufgeschlüsselt. Hier geht es speziell um die KI-Bot-Frage:
- Squarespace bietet eine eigene Checkbox unter Settings > Crawlers an: „Block known artificial intelligence crawlers.“ Die ist standardmäßig ausgeschaltet. Gut so. Aber wenn du sie irgendwann aktiviert hast, sind KI-Bots draußen.
- Wix hat einen robots.txt-Editor, aber keinen einfachen Toggle. Du müsstest manuell die richtigen User-Agent-Einträge hinzufügen. Für die meisten Wix-Nutzer heißt das in der Praxis: kein Feature vorhanden.
- Der IONOS-Baukasten sitzt auf IONOS Shared Hosting. Und dort blockiert der Server bestimmte KI-Bots. Das betrifft auch die Baukasten-Websites.
- Bei Jimdo und anderen Anbietern gibt es bisher keine dokumentierte Möglichkeit, KI-Bot-Zugriffe gezielt zu steuern.
Wie du in 5 Minuten prüfst, ob KI-Bots auf deine Website zugreifen können
Mein Tipp und der einfachste Weg: Installiere die Lumina SEO Chrome Extension (kostenlos, kein Account nötig). Die Extension hat einen Crawler Access Checker, der 36 Bots prüft. Sowohl die robots.txt-Regeln als auch den tatsächlichen Server-Zugang über einen Live-Test mit dem echten User-Agent-String jedes Bots.
Öffne deine Website im Browser, starte den Crawler Access Check und schau dir das Ergebnis an. Grün heißt: Der Bot kommt durch. Rot oder „403 Forbidden“ heißt: Der Server blockiert den Bot, egal was in deiner robots.txt steht.
Wenn du dort siehst, dass GPTBot, ClaudeBot oder PerplexityBot blockiert sind, hast du drei Möglichkeiten:
- Deinen Hoster kontaktieren und fragen, ob er die KI-Bots freischalten kann.
- Dein Sicherheits-Plugin oder Cloudflare prüfen und die Einstellung ändern.
- Den Hoster wechseln. Bevor du das tust: beim neuen Hoster vorher prüfen, ob KI-Bots erlaubt sind. Das geht mit dem gleichen Tool, indem du die Website eines bestehenden Kunden beim neuen Hoster testest. Zugegeben: Das ist der aufwändigste Weg. Zuerst musst du eine Seite zum Testen finden und prüfen und dann deinen Webspace umziehen.
Was du jetzt konkret tun kannst: Checkliste für deine Website
Hier sind die konkreten Schritte, die du sofort umsetzen kannst. In dieser Reihenfolge, denn ohne den ersten Schritt nützen die anderen nichts.
- Prüfe, ob KI-Bots auf deine Website zugreifen können. Installiere die Lumina SEO Extension und starte den Crawler Access Check. Wenn Bots blockiert sind, kläre das zuerst.
- Prüfe deine robots.txt. Die findest du unter deinewebsite.de/robots.txt. GPTBot, ClaudeBot, OAI-SearchBot und PerplexityBot sollten dort nicht mit „Disallow: /“ gesperrt sein. Wenn doch, ändere es in „Allow: /“.
- Prüfe jede wichtige Seite auf Antwort-Bausteine. Gibt es auf deiner Angebotsseite mindestens eine Passage, die als eigenständige Antwort auf eine konkrete Frage funktioniert? Zum Beispiel: „Was ist SEO-Coaching? SEO-Coaching bedeutet…“ Dieser Satz muss auch ohne den Rest der Seite verständlich sein.
- Ergänze FAQ-Blöcke am Ende deiner wichtigsten Seiten. Drei bis fünf Fragen, die deine Zielgruppe tatsächlich stellt. Jede Antwort in ein bis zwei Sätzen, vollständig und konkret.
- Mach dich als Autorin sichtbar. Name, Erfahrung, Perspektive. Auf jeder Seite erkennbar. Nicht versteckt im Footer, sondern im Content.
- Halte deine Inhalte aktuell. Veröffentlichungsdatum und Aktualisierungsdatum sichtbar machen. KI-Systeme bevorzugen aktuelle Inhalte.
- Teste deine eigene Marke in den KI-Systemen. Gib deinen Namen und dein Thema in ChatGPT und Perplexity ein. Wirst du erwähnt? Wirst du verlinkt? Wenn nicht, weißt du, wo du stehst.
Meine Einschätzung: Was bedeutet das für deine Website?
Ich arbeite seit 15 Jahren im SEO. Was ich gerade bei meinen Kundinnen sehe: Die meisten Websites von Coaches und Selbstständigen stehen noch nicht in den Google Top 10. Und solange das so ist, bringt GEO allein wenig. Denn die KI zitiert bevorzugt Seiten, die auch bei Google sichtbar sind. Falls du nicht sicher bist, wo du stehst: In meinem Artikel Ranking-Check Google: So prüfst du deine Position wirklich zeige ich dir, wie du das herausfindest.
Das heißt: SEO zuerst. GEO als Erweiterung, nicht als Ersatz.
Aber, und das ist der Punkt: Die Struktur, die du heute für SEO aufbaust, wirkt gleichzeitig für GEO. Saubere Überschriften, klare Antwort-Bausteine, eine erkennbare Autorin, aktuelle Inhalte. Das sind keine zwei getrennten Welten. Wer jetzt sauber aufbaut, hat morgen einen Vorsprung bei Google und KI.
Was ich nicht empfehle: In Panik zu verfallen oder alles umzuwerfen. Die Google-Aussage „Good SEO is good GEO“ stimmt im Kern. Die Grundlagen bleiben gleich. Was dazukommt, ist der technische Check (kommen die KI-Bots auf meine Seite?) und das Denken in Antwort-Bausteinen statt in Textwänden.
Und ein Punkt, der in der ganzen GEO-Debatte oft untergeht: Die beste Optimierung für KI ist Content, der aus echter Erfahrung kommt. Dein konkretes Beispiel aus der Praxis, deine Einschätzung zu einer Frage, dein Blickwinkel, den nur du hast. Das ist genau das, was Google „Non-Commodity“ nennt. Und es ist das, was KI-Systeme als zitierwürdig einstufen.
Im 13-Wochen-Coaching „Gefunden und gebucht“ bauen wir deine Website so auf, dass sie bei Google und KI sichtbar wird. Wir klären, ob deine Technik stimmt, welche Inhalte Potenzial haben und wie du deine Struktur so aufbaust, dass sie für beide Welten funktioniert. Wer erst eine konkrete Frage klären will, zum Beispiel ob der eigene Hoster KI-Bots blockiert, ist mit der SEO-Sprechstunde schneller.
SEO-Coaching ansehen oder SEO-Sprechstunde buchen
Was du mitnimmst
KI-Sichtbarkeit ist kein eigenes Projekt. Sie entsteht aus sauberem SEO, guter Struktur und einem technischen Check, den du in 5 Minuten machen kannst.
Hier die wichtigsten Punkte:
- SEO bleibt Pflicht: Ohne Google-Rankings keine KI-Zitierungen. Google AI Overviews zitieren fast ausschließlich Seiten aus den Top 10.
- Google, ChatGPT und Claude funktionieren unterschiedlich: Google greift auf aktuelle Webinhalte zu, Claude vor allem auf Trainingsdaten, ChatGPT auf beides. Du brauchst SEO und Markenpräsenz.
- Struktur schlägt Budget: Die meistzitierten Webseiten haben keine riesigen Budgets, sondern klare Antwort-Bausteine, FAQ-Blöcke und sichtbare Autorenschaft.
- Prüfe zuerst die Technik: 33 Prozent der deutschen Websites blockieren KI-Bots auf Server-Ebene, ohne dass die Betreiber es wissen. Lumina SEO Extension installieren, Crawler Access Check starten, Ergebnis lesen.
- Dein Hoster kann das Problem sein: IONOS Shared Hosting, Hetzner und Host Europe blockieren KI-Crawler. Cloudflare ebenfalls, oft standardmäßig. Wenn dein Hoster blockiert und das nicht ändern will: Hoster wechseln.
- Non-Commodity-Content ist der Schlüssel: Nicht „5 Tipps für X“, sondern dein konkretes Beispiel, deine Erfahrung, deine Einschätzung. Das ist, was KI-Systeme zitieren wollen.
- Kein Grund zur Panik: Du musst nicht alles umwerfen. Bau deine Website sauber auf, dann funktioniert sie für Google und KI gleichzeitig.
Quellen und weiterführende Links:
Google: „Good SEO is good GEO“ – SEO Südwest, April 2026
SISTRIX: Der Weg zur AI-Citation – Was die 100 meistzitierten Webseiten richtig machen (November 2025)
SISTRIX: Google AI Mode – SEO im KI-Modus
SEOSOON KI-Crawler Analyse: 33 % der deutschen Websites blockieren KI-Bots (März 2026)
SEO Südwest: IONOS blockiert Zugriffe mancher KI-Bots auf Websites (August 2025)
Lumina SEO – kostenlose Chrome Extension mit Crawler Access Checker
snoopmedia: Generative Engine Optimization – Analyse und Optimierung von Generative-AI-Traffic

Kati Wolf
SEO-Coach 15+ Jahren Erfahrung in SEO (und GEO), Mitdenkerin & FehlerfinderinIch begleite dich als selbstständige Expertin, Dienstleisterin und Coach,
wenn du dir wünschst, dass deine Website besser gefunden wird und zuverlässig Kundinnen bringt.
Nach 13 Wochen ist deine Website klarer aufgebaut, besser auf dein Angebot ausgerichtet und so aufgestellt, dass sie eher passende Anfragen bringen kann. Und du weißt, was du bei SEO als Nächstes angehst, statt dich weiter zu verzetteln.
Kennenlerngespräch buchen



