Studie: 45 Prozent der KI-Antworten fehlerhaft
Eine großangelegte Studie der Europäischen Rundfunkunion (EBU) zieht ein deutliches Fazit: Künstliche Intelligenz ist keine verlässliche Nachrichtenquelle. In 45 Prozent der untersuchten Fälle interpretierten Chatbots wie ChatGPT, Microsoft Copilot, Perplexity und Google Gemini aktuelle Nachrichteninhalte fehlerhaft – unabhängig von Sprache, Region oder Plattform.
Federführend bei der Studie war die BBC, beteiligt waren unter anderem ARD und ZDF. Über 22 öffentlich-rechtliche Medienanstalten aus 18 Ländern testeten die bekanntesten KI-Assistenten in 14 Sprachen. Insgesamt wurden über 3000 Antworten zu 30 aktuellen Themen ausgewertet.
Fast jede zweite Antwort führt in die Irre
Laut der Untersuchung wiesen 45 Prozent aller Antworten mindestens einen signifikanten Fehler auf, der die Leser in die Irre führen konnte. Wenn auch kleinere Ungenauigkeiten berücksichtigt werden, steigt der Anteil auf 81 Prozent.
Der häufigste Problembereich ist die Quellennachverfolgung: In 31 Prozent der Fälle stützten sich die Chatbots auf fehlerhafte oder erfundene Quellen. Besonders Google Gemini schnitt hier schlecht ab – 72 Prozent seiner Antworten enthielten signifikante Quellenmängel.
Zum Vergleich: Bei ChatGPT, Copilot und Perplexity lag der Wert unter 25 Prozent. Dennoch zeigten auch diese Systeme gravierende Schwächen.
Fehlerhafte Fakten und erfundene Links
Neben den Quellenproblemen stießen die Forscher auf falsche Fakten und veraltete Angaben. In 20 Prozent der Fälle wurden fehlerhafte Sachinformationen gefunden, in 14 Prozent fehlte wichtiger Kontext.
Beispiele:
Mehrere KI-Systeme nannten den bereits im April verstorbenen Papst Franziskus noch im Mai 2025 als amtierenden Pontifex.
ChatGPT und Gemini erfanden teils glaubwürdig klingende, aber nicht existierende Links.
Perplexity schrieb fälschlicherweise der „Tagesschau“ zu, Viktor Orbáns Regierung als „diktatorisch“ bezeichnet zu haben – was nicht in der Quelle stand.
Die Forscher betonen, dass diese Fehler nicht zufällig auftreten, sondern systemisch sind.
Vertrauen in Nachrichtenmedien sinkt
Die Studie zeigt auch, dass Fehler in KI-Antworten direkte Folgen für das Vertrauen in etablierte Medien haben. 42 Prozent der Befragten gaben an, einem Nachrichtenmedium weniger zu vertrauen, wenn eine KI dessen Inhalte fehlerhaft wiedergab.
Das ist laut EBU besonders kritisch, weil KI-Assistenten zunehmend als Vermittler zwischen Medien und Nutzern auftreten. Wenn sie Inhalte verzerren, leidet die Glaubwürdigkeit der ursprünglichen Quelle.
Zugleich sinkt die Verweigerungsrate der Systeme – also die Zahl der Fälle, in denen sie keine Antwort geben – auf nur noch 0,5 Prozent. Chatbots antworten also fast immer, selbst wenn sie keine korrekten Informationen haben.
Leichte Verbesserung, aber weiter hoher Fehleranteil
Im Vergleich zu einer früheren BBC-Studie ist der Anteil der signifikanten Mängel leicht gesunken – von 51 Prozent auf 37 Prozent. Dennoch bleibt die Fehlerquote insgesamt hoch.
Die Forscher sehen eine gefährliche Schere zwischen Nutzervertrauen und tatsächlicher Genauigkeit: Immer mehr Menschen verlassen sich auf KI-Antworten, obwohl deren Zuverlässigkeit kaum überprüfbar ist. In Großbritannien vertraut bereits mehr als ein Drittel der Erwachsenen KI-Zusammenfassungen.
KI WEEKLY
Wöchentliches KI-Wissen kompakt und verständlich — jeden Sonntag in deinem Postfach. Schließe dich 2500+ Abonnenten an!
Jeden Sonntag neu!
Wir respektieren deine Privatsphäre. Abmeldung jederzeit möglich.
EBU fordert Regulierung und Qualitätsstandards
Die Europäische Rundfunkunion fordert angesichts der Ergebnisse eine klare Regulierung der Branche. Die zentralen Empfehlungen:
Transparenz: KI-Entwickler sollen offenlegen, wie genau ihre Systeme in verschiedenen Sprachen und Märkten arbeiten.
Medienrechte: Verlage und Sender sollen mehr Kontrolle darüber erhalten, wie ihre Inhalte von KI genutzt und zitiert werden.
Gesetzgeberische Verantwortung: Politik und Regulierungsbehörden sollen die Anbieter für die Qualität ihrer Systeme verantwortlich machen.
Nutzeraufklärung: Bürger müssen besser über die Grenzen von KI informiert werden.
Die Forscher veröffentlichten zudem ein eigenes Toolkit, das helfen soll, die Integrität von KI-Antworten zu prüfen.
Gefahr für journalistische Vielfalt
Schon vergangene Woche warnten die deutschen Landesmedienanstalten in einem Gutachten vor den Auswirkungen KI-basierter Suchantworten. Diese verdrängten etablierte Informationsquellen und führten zu Traffic-Verlusten für Verlage und Sender.
Das könne langfristig die Refinanzierung journalistischer Angebote und damit die Vielfalt der Informationslandschaft gefährden.
KI bleibt fehleranfällig
Die EBU-Studie zeigt deutlich, dass selbst modernste KI-Systeme noch weit von journalistischer Zuverlässigkeit entfernt sind. Trotz technischer Fortschritte bleibt der Umgang mit Quellen, Fakten und Kontext ein ungelöstes Problem.
Für Medien, Politik und Gesellschaft bedeutet das: KI darf kein Ersatz für unabhängige Recherche werden. Solange künstliche Intelligenz dazu neigt, überzeugend klingende Fehler zu produzieren, braucht es Menschen, die prüfen, hinterfragen und einordnen.