MENU
Checkliste

Trügerische Alleswisser

28. Mai 2025

Ob in Microsofts Suchmaschine Bing, in Whatsapp, Photoshop oder anderer Software von Adobe: KI-Assistenten tauchen an immer mehr Ecken unseres digitalen Alltags auf. Und tatsächlich liefern die KI-Sprachmodelle erstaunlich überzeugende Ergebnisse, die aber nicht immer stimmen müssen. Wann, wie und warum künstliche Intelligenz halluziniert und was dann zu tun ist, das klärt unsere Checkliste.

 

Was versteht man unter KI-Halluzinationen?

Wer bei Google „KI-Sprachmodelle“ ins Suchfeld eintippt, bekommt als ersten Treffer eine KI-generierte Antwort. Diese sogenannte Übersicht mit KI hat der US-Suchmaschinen-Riese zunächst auf dem Heimatmarkt und im März 2025 auch in Deutschland und weiteren europäischen Ländern eingeführt. Unter den kompetent klingenden und gut gegliederten Antworten, die bislang nur angemeldeten Nutzenden angezeigt werden, liest man den Hinweis: „Generative KI ist experimentell.“ Was damit gemeint ist: „Große Sprachmodelle neigen dazu, mit großer Selbstsicherheit neue, jedoch falsche Informationen zu erzeugen“, sagt Thora Markert, Leiterin des Bereichs KI-Forschung und -Governance bei TÜVIT.

Und diese Halluzinationen wirken oft plausibel, bindet die KI ihre erfundenen Fakten doch in flüssige und zusammenhängende Texte ein. Die Konsequenz: Nutzende glauben den Falschinformationen und verbreiten sie möglicherweise weiter. Veritable Probleme sind solche Halluzinationen nicht zuletzt für die wachsende Zahl von Unternehmen, die KI für die Kommunikation mit ihren Kund:innen verwenden. Denn wenn der eigene KI-Chatbot Menschen ständig mit Falschinformationen versorgt, kann das schnell am Ruf der Firma kratzen.

 

Warum erfindet KI überhaupt Fakten?

KI-Modelle lügen natürlich nicht absichtlich. Anders als wir haben sie schlicht kein Bewusstsein für die Texte, die sie generieren. Die technischen Gründe für ihre Halluzinationen können dabei vielfältig sein. „Ein möglicher Faktor sind etwa veraltete, schlechte oder widersprüchliche Daten, mit denen die KI trainiert wurde“, erklärt Expertin Markert. Auch unzureichende Trainings- und Generierungsmethoden können Halluzinationen begünstigen. Manchmal fehlen den Sprachmodellen schlicht ausreichende Informationen zu einem bestimmten Thema. Dann versuchen sie die Lücken auf Grundlage gelernter Muster zu füllen – und lassen sich vermeintlich passende Fakten oder Zitate einfallen.

„Aber auch unklare oder widersprüchliche Eingaben der Benutzenden können zu Halluzinationen führen“, so Markert. Insbesondere, wenn wir umgangssprachlich mit der KI kommunizieren, da diese sich beispielsweise von Sarkasmus gerne aufs Glatteis führen lässt. Was allerdings im konkreten Fall zu einer bestimmten Halluzination geführt hat, das lässt sich zumeist nicht ohne Weiteres ermitteln: „KI-Modelle sind in der Regel eine Blackbox“, sagt die Expertin. Wie die Modelle operieren und ihre Ergebnisse generieren, ist also selbst für Entwicklerinnen und Entwickler oft nicht einsehbar.

 

Wie kann man KI-Halluzinationen erkennen?

Indem man KI nicht blind vertraut! Kleine Unstimmigkeiten etwa fallen auch Laiinnen und Laien auf: Sätze widersprechen vorangegangenen Sätzen oder Teilen der generierten Antwort. Oder die KI-Antworten passen vollständig oder teilweise nicht zu der Frage, die ihnen der Mensch gestellt hat. „Regelmäßige Überprüfungen der Genauigkeit und Zuverlässigkeit von KI-gestützten Systemen sind unerlässlich, um das Risiko von Fehlinformationen zu minimieren“, empfiehlt daher Expertin Markert. Am eigenen Faktencheck führt also letztlich kein Weg vorbei. Google etwa gibt zu seinen KI-Antworten auch die Quellen an, aus denen sie generiert wurden. Folgt man diesen Links, kann man sich selbst ein Bild davon machen, ob die KI die Informationen korrekt zusammengefasst und wiedergegeben oder ob sie Zahlen und Aussagen aus dem Kontext gerissen hat.

 

Wie lassen sich Halluzinationen bestmöglich verhindern?

Selbst wenn das jeweilige Sprachmodell auf zuverlässigen und konsistenten Datensätzen gebaut ist, lassen sich digitale Sinnestäuschungen nicht völlig ausschließen. „Die Reduzierung von Halluzinationen ist daher eine der grundlegenden Herausforderungen für die Entwicklerinnen und Entwickler sowie die Betreibenden von KI“, sagt Vasilios Danos, Leiter des Bereichs KI-Sicherheit bei TÜVIT. Er und sein Team unterstützen Entwicklerinnen und Entwickler dabei. In umfangreichen Tests identifizieren die Fachleute Schwachstellen, um Risiken zu minimieren. „Im besten Fall kommen wir zum Einsatz, bevor die Anwendung auf den Markt kommt, um die Wahrscheinlichkeit von Halluzinationen von vorneherein zu verringern“, sagt der Experte. Das stärke das Vertrauen in KI-Technologien, so Danos. „Und es stellt sicher, dass ihre Vorteile verantwortungsvoll genutzt werden können.“

 

Zur Person

Thora Markert ist Leiterin des Bereichs KI-Forschung und -Governance bei TÜVIT. Die Informatikerin beschäftigt sich schwerpunktmäßig mit der Verlässlichkeit und IT-Sicherheit von KI, hat eine Testumgebung für künstliche Intelligenz entwickelt und fühlt dieser auch selbst in Prüfungen auf den Zahn.

 

Zur Person

Vasilios Danos ist Leiter des Bereichs KI-Sicherheit bei TÜVIT. Der diplomierte Elektrotechniker beschäftigte sich bereits im Studium mit den Möglichkeiten von künstlicher Intelligenz und neuronalen Netzen. Schon bei der Roboterfußball-WM 2006 in Dortmund konnte er erste Erfahrungen mit den Risiken künstlicher Intelligenz sammeln: Obwohl die KI-gesteuerten Roboter in der Lage waren, die meisten Tore zu erzielen, kam es häufig vor, dass sie das falsche Tor anvisierten.

Entdeckt, erklärt, erzählt: Der Podcast von #explore