TL;DR: Sprachmodelle wie ChatGPT, Google Gemini oder Claude erfinden Fakten, die sie plausibel präsentieren – falsche Gerichtsklagen, erfundene Produktrückrufe oder konstruierte Unternehmensprofile. Wenn Kund*innen, Journalist*innen oder Geschäftspartner*innen in KI-Ergebnissen auf diese Falschinformationen stoßen, können Schäden für Unternehmensreputation und Geschäftserfolg entstehen. In diesem Beitrag erklären wir, was KI-Halluzinationen sind, warum sie für die Unternehmenskommunikation eine große Herausforderung bedeuten und was PR-Verantwortliche dagegen tun können.
INHALT
1. Was sind KI-Halluzinationen?
Von KI-Halluzinationen spricht man, wenn Sprachmodelle Inhalte erzeugen, die erfunden sind und dabei völlig überzeugend klingen. Sie entstehen nicht aus Unachtsamkeit oder Unwissenheit und auch nicht „bewusst“, sondern ihr Ursprung liegt im Funktionsprinzip der Technologie: Large Language Models (LLMs) berechnen Wort für Wort die wahrscheinlichste Fortsetzung eines Textes. Sie optimieren auf sprachliche Plausibilität, nicht auf Wahrheit. Das bedeutet: Ein KI-Modell „weiß“ nicht, ob seine Aussage stimmt. Es berechnet lediglich, welche Antwort statistisch am besten passt.
Besonders tückisch: KI-Systeme kommunizieren ihre Unsicherheit nicht. Statt „Ich bin mir nicht sicher“ zu vermitteln, formulieren sie selbstbewusst und mit scheinbarer Autorität. Studien zeigen, dass manche Modelle sogar häufiger Formulierungen wie „definitiv“ oder „ohne Zweifel“ verwenden, wenn sie falsche Informationen generieren. Für Leser*innen, die diesen Hintergrund nicht kennen, sind solche Fehler kaum zu erkennen.
2. Warum wird das Problem „KI-Halluzinationen“ größer statt kleiner?
Man könnte annehmen, dass neuere KI-Modelle weniger halluzinieren. Das Gegenteil ist der Fall – zumindest in bestimmten Bereichen. Laut internen Tests von OpenAI halluziniert GPT o3 bei Fragen zu Personen des öffentlichen Lebens in einem Drittel der Fälle. Bei allgemeinen Wissensfragen erreicht das Modell o4-mini Fehlerraten von mehr als 50 Prozent. Auch bei den neuesten Modellen besteht das Problem weiterhin. Claude Opus 4.6 erreicht im SimpleQA-Benchmark eine Halluzinationsrate von 48,3 Prozent, GPT 5.4 halluziniert in ca. 30 Prozent der Fälle. Das ist eine Verbesserung gegenüber den vorherigen Modellen, aber immer noch jeder dritte „Fakt“ ist falsch.
Expert*innen sprechen vom Rebound-Effekt: Je sprachgewandter ein Modell wird, desto überzeugender klingen auch seine Fehler – und desto schwerer sind sie zu entlarven. Dazu kommt: Die neueren „Reasoning“-Modelle, die Schritt für Schritt denken sollen, können bei jedem Teilschritt Fehler machen, die sich am Ende aufsummieren.
Gleichzeitig werden KI-generierte Suchergebnisse zum neuen Standard. Seit der Einführung von Google AI Overviews erscheinen KI-Zusammenfassungen automatisch über den klassischen Suchergebnissen. Sieben von zehn Google-Suchen enden ohne Klick auf Links in der Ergebnisliste – Nutzer*innen lesen die KI-Antwort und surfen gar nicht mehr weiter. Wenn in dieser Antwort eine falsche Aussage über dein Unternehmen steht, wird sie damit zur einzigen Information, die potenzielle Kund*innen erhalten.
3. Welche Risiken bedeuten KI-Halluzinationen für die Unternehmenskommunikation?
Für PR- und Kommunikationsteams sind KI-Halluzinationen in zwei Richtungen relevant:
3.1 Risiko nach außen: Was KI über dein Unternehmen behauptet
KI-Modelle können falsche Informationen über dein Unternehmen erzeugen, ohne dass du es bemerkst. Stell dir vor, eine potenzielle Kundin googelt den Namen deines Unternehmens und bekommt als KI-generierte Zusammenfassung angezeigt, dass es in einen Rechtsstreit verwickelt ist – obwohl das nie der Fall war.
Genau das ist einem Solarunternehmen aus den USA widerfahren. Googles AI Overviews behaupteten, das Unternehmen werde vom Generalstaatsanwalt von Minnesota wegen irreführender Geschäftspraktiken verklagt. Die Information war frei erfunden: Der Generalstaatsanwalt hatte vier andere Solarunternehmen verklagt. Obwohl das besagte Unternehmen nicht beteiligt war, vermischte und kombinierte Googles KI die Fakten und präsentierte das Ergebnis als Tatsache. Die Folge: Kund*innen kündigten Verträge im Wert von über 170.000 US Dollar, eine gemeinnützige Organisation beendete die Zusammenarbeit. Das Unternehmen klagt mittlerweile auf bis zu 210 Millionen US Dollar Schadensersatz.
Dieses Beispiel ist kein Einzelfall. In den USA laufen aktuell mehrere KI-Verleumdungsklagen. Und in einem inzwischen bekannt gewordenen Gerichtsfall berief sich ein Anwalt auf KI-generierte Präzedenzfälle, die es nie gegeben hatte. Die KI hatte samt Aktenzeichen und Urteilsbegründung alles erfunden..
3.2 Risiko nach innen: Wenn das eigene Team auf KI-Fakten vertraut
Die zweite Gefahr liegt im eigenen Haus. Wenn PR-Teams künstliche Intelligenz für Recherchen, Texterstellung oder Argumentationsaufbau nutzen und den Output nicht konsequent prüfen, können von künstlicher Intelligenz halluzinierte „Fakten“ in Pressemitteilungen, Fachartikel oder Pitches einfließen. So etwa ein erfundenes Marktvolumen in einer Pressemitteilung, eine falsche Wettbewerbereinordnung in einem Pitch oder ein nicht existierendes Studienergebnis in einem Fachartikel. Ein besonders drastisches Beispiel: ein Redakteur des Handelsblatts wird von einer Agentur auf einen angeblich von ihm verfassten Beitrag angesprochen, der jedoch von der Agentur-KI halluziniert wurde. Solche Fehler ruinieren die Glaubwürdigkeit eines Unternehmens und seiner Expert*innen!
4. KI-Halluzinationen erkennen und gegensteuern: 5 Tipps für die PR-Praxis
Halluzinationen lassen sich beim aktuellen Stand der Technik nicht vollständig verhindern. Es gilt also, sich das Risiko bewusst zu machen und Sicherheitsmechanismen zu etablieren.
- KI-Monitoring aufsetzen: Prüfe regelmäßig, welche Informationen ChatGPT, Copilot und Co. über dein Unternehmen ausgeben – und ob diese aktuell und faktentreu sind. Weniger bekannte Unternehmen sind besonders gefährdet, weil weniger verifizierte Daten verfügbar sind.
- Faktencheck zur Pflicht machen: Zahlen, Studien, Quellen müssen manuell geprüft werden! KI erfindet auch Quellenangaben einschließlich Autor*innen, Titel und Verlag.
- Umgang mit Halluzinationen in die KI-Guidelines aufnehmen: Definiere, dass Fakten in Inhalten, an deren Erstellung KI beteiligt war, vor Veröffentlichung stets einen weiteren manuellen Check benötigen (Human-in-the-Loop) und etabliere ein Vier-Augen-Prinzip.
- Im Ernstfall schnell reagieren: Du hast eine falsche KI-Aussage entdeckt? Wenn sie Brisanz hat, sichere Screenshots, melde den Fehler beim KI-Anbieter, informiere relevante Stakeholder und bereite FAQs vor. Das Thema „auszusitzen“ ist unangebracht, denn KI-Fehlinformationen verschwinden nicht einfach so und können sich durch Nachfragen anderer Nutzer*innen verstärken.
- Digitale Sichtbarkeit stärken und GEO-Analysen durchführen: KI halluziniert besonders dann, wenn wenig verlässliche Daten und Inhalte zu finden sind. Deshalb gilt: Unternehmensinformationen auf der Website klar strukturieren, Präsenz in den Medien pflegen, Wikipedia-Einträge aktuell halten. Entscheidend ist dabei eine systematische GEO-Analyse (Generative Engine Optimization): Prüfe gezielt, wie KI-Modelle deine Inhalte erfassen, interpretieren und wiedergeben und optimiere sie entsprechend. Klassisches SEO ist hier nicht ausreichend, denn KI-Modelle bewerten Inhalte anders als Suchmaschinen-Crawler.
5. Fazit: KI-Output konsequent scannen und Prüfprozesse etablieren
KI-Halluzinationen sind kein Phänomen, das irgendwann von selbst verschwindet. Sie sind ein strukturelles Merkmal aktueller Sprachmodelle und werden uns auf absehbare Zeit begleiten. Für PR- und Kommunikationsteams bedeutet das zweierlei: Erstens müssen sie den eigenen KI-Einsatz mit klaren Prüfprozessen absichern. Zweitens müssen sie proaktiv beobachten, was KI-Systeme über ihr Unternehmen sagen und im Ernstfall schnell reagieren können.
Die positive Nachricht: Hochwertiger Content, Präsenz in vertrauenswürdigen Medien, strukturierte Unternehmensinformationen und ein kritisches Auge auf Fakten sind seit jeher Kennzeichen guter Kommunikationsarbeit und reduzieren zudem die Gefahr von KI-Halluzinationen. Jedoch haben Qualitätssicherung und Reputationsschutz weitere Dimensionen erreicht. Mit wachsendem KI-Einsatz wachsen somit auch weiter das Aufgabenfeld (KI-Monitoring, GEO) und die Mitverantwortung von Kommunikationsprofis für den Geschäftserfolg eines Unternehmens.
6. Key Facts: KI-Halluzinationen in der Unternehmenskommunikation
- KI-Halluzinationen sind falsche, aber überzeugend klingende Aussagen, die Sprachmodelle mit scheinbarer Autorität generieren.
- Neuere KI-Modelle halluzinieren in bestimmten Bereichen häufiger, nicht seltener. Die Fehler werden dabei schwerer erkennbar.
- Google AI Overviews, Perplexity, ChatGPT und Co. können falsche Informationen über Unternehmen verbreiten – mit direktem Einfluss auf Geschäft und Reputation.
- KI-gestützte Inhalte benötigen einen konsequenten Faktencheck. Die Verantwortung für die Richtigkeit bleibt beim Menschen.
- Reguläres KI-Monitoring (analog zum Medienmonitoring) und eine starke digitale Sichtbarkeit (GEO) sind zentrale Schutzmaßnahmen.
Weitere Beiträge zum Thema KI
Prompting Tipps für die PR-Praxis: So briefst du KI-Tools richtig
Thought Leadership Content via Fachmedien in Zeiten KI-generierter Inhalte
Digitale Sichtbarkeit im KI-Zeitalter steigern – was kannst du dafür tun?






