KI-Halluzination: Wie ChatGPT die Grenzen von Künstlicher Intelligenz verschiebt

Vorschau
Halluzination Symbolbild

Halluzinationen sind ein Phänomen für sich. Aber: Nicht nur der menschliche Geist ist für Halluzinationen anfällig. Es mag überraschen, aber auch künstliche Intelligenz (KI) kann metaphorisch gesehen "halluzinieren". Wie kann das sein? Nehmen wir dieses bemerkenswerte KI-Phänomen mal unter die Lupe und schauen uns an, wie die KI-Forschung darauf abzielt, diese "Halluzinationen" zu kontrollieren.

Das Problem der Halluzination in KI

Wenn wir von "Halluzinationen" in KI sprechen, meinen wir natürlich nicht, dass Roboter plötzlich wilde Visionen von feuerspeienden Drachen und rosa Einhörnern haben. Stattdessen bezieht sich dieser Begriff auf eine besondere Art von Fehler, die KI-Modelle, insbesondere generative Sprachmodelle, machen können.

Diese Sprachmodelle, wie das beliebte ChatGPT von OpenAI, sind dafür bekannt, sehr menschenähnlich zu antworten und oft sehr plausible, mit Beispielen hinterlegte Antworten zu geben. Sie sind nur leider auch dafür bekannt, manchmal völlig falsche Informationen und Fakten zu liefern, die trotzdem sehr überzeugend klingen. Teilweise sogar so überzeugend, dass sie wahr sein könnten. Diese falschen Antworten bezeichnet man als "Halluzinationen" - in grober Analogie zu den Halluzinationen in menschlicher Psychologie. Ein wesentlicher Unterschied besteht jedoch darin, dass menschliche Halluzinationen in der Regel mit falscher Wahrnehmung zu tun haben, während KI-Halluzinationen meist auf falschen oder unbegründeten Antworten oder Glauben beruhen.

ChatGPT Startseite

Warum halluziniert KI?

KI-Modelle wie ChatGPT lernen durch die Analyse großer Mengen von Textdaten. Sie lernen Muster und Zusammenhänge in diesen Daten und verwenden diese, um neue Texte zu generieren. Wenn sie jedoch auf eine Situation stoßen, für die sie keine passenden Muster in ihren Daten haben, können sie dazu neigen, Informationen zu "halluzinieren". Das führt zu einer Menge falscher Informationen, die verbreitet werden können, was zu Verwirrung und Missverständnissen führen kann - so wurde OpenAI auf Social Media für manche (sehr) absurde Antworten von ChatGPT verantwortlich gemacht.

Sehen wir von Chatbots ab, werden auch einige andere KI-Modelle absichtlich darauf trainiert, Ergebnisse bzw. Halluzinationen zu erzeugen, die nichts mit den Trainingsdaten zu tun haben.

So können beispielsweise Text-zu-Bild KIs wie Midjourney oder DALL-E 2/3 (Bildgenerator von OpenAI) auf kreative Weise neue Bilder erzeugen, die man als Halluzinationen bezeichnen kann, da sie nicht auf ihren Trainingsdaten beruhen.

ChatGPT und Halluzinationen: Wenn ChatGPT Fakten erfindet

Wie funktioniert ChatGPT in Kürze

ChatGPT wurde auf einer riesigen Menge von Textdaten aus dem Internet trainiert und hat gelernt, menschenähnliche Texte zu generieren, indem es Muster und Zusammenhänge in diesen Daten erkennt. Es ist wichtig zu betonen, dass ChatGPT, obwohl es menschenähnliche Texte generieren kann, kein Verständnis für die Bedeutung und den Inhalt dieser Texte hat. Es generiert Texte basierend auf statistischen Mustern, nicht auf einem Verständnis der Welt.

Laut Ex-Google-KI-Chef Mo Gawdat ist es jedoch nur noch eine Frage der Zeit, bis KI Emotionen und Gefühle spürt und die Welt wahrnehmen kann. Andere Forscher sind hingegen der Meinung, dass der Begriff „KI-Halluzination“ die KI in unangemessener Weise vermenschlicht.

Der ChatGPT-Anwalt

Es gibt viele Beispiele für Situationen, in denen ChatGPT halluziniert hat. Ein besonders prägnanter (und lustiger) Fall ereignete sich in den USA, wo ein Mann eine Fluggesellschaft verklagte, da er auf einem Flug von einem Servierwagen angefahren wurde. Als die Fluggesellschaft Post vom Anwalt des Mannes erhielt, in der der Anwalt eine Reihe von Präzedenzfällen für den Fall auflistete, wurde die Rechtsabteilung der Airline neugierig.

Alle Fälle enthielten Zitate aus etwaigen Gerichtsentscheidungen mit sogenannten docket numbers, die dem deutschen Aktenzeichen entsprechen. Zusätzlich wurde versichert, dass die entsprechenden Fälle in den Gerichtsarchiven zu finden sein. So weit, so gut. Auf Nachfrage übermittelte der Anwalt des Klägers sogar mehrseitige Auszüge aus den vermeintlichen Akten. Das Problem war jedoch, wie sich herausstellte, dass alles - Fallauszüge, Gerichtsentscheidungen, Aktenzeichen, … - von der KI erfunden war, wie die New York Times berichtete.

Flugzeug Gang

Die New York Times erzählt, was passiert, wenn dein Anwalt ChatGPT benutzt. (Paywall)

Die Auswirkungen von KI-Halluzinationen

KI-Halluzinationen können eine Reihe von Problemen und Bedenken aufwerfen. Eines der offensichtlichsten ist die Verbreitung von Fehlinformationen. Wenn Menschen KI-Modelle wie ChatGPT blind vertrauen und die von ihnen generierten Informationen nicht überprüfen, können sie leicht dazu verleitet werden, falsche Informationen zu glauben und zu verbreiten. Dies könnte insbesondere in Bereichen wie der Wissenschaft, der Medizin und der Politik problematisch sein, wo Genauigkeit und Wahrheit von entscheidender Bedeutung sind.

Eine weitere Herausforderung dieser Halluzinationen besteht darin, dass sie oft sehr schwer zu erkennen sind - auch vermeintlichen „Experten“, wie dem Anwalt aus dem Airline-Fall können die erstellen Texte täuschen. Ein gründliches fact-checking - wie echt auch immer die Kreation scheinen mag - ist also unerlässlich.

Aktuelle Lösungsansätze für die Halluzinationen

Angesichts dieses - in der KI-Forschung lang bekannten - Problems arbeiten Forscher auf der ganzen Welt daran, Lösungen zu finden, um das Halluzinationsproblem der KI in den Griff zu bekommen. Zwei solcher Ansätze, die besonders vielversprechend sind, sind der Kreuzverhöransatz und die Verwendung von Knowledge Graph.

Kreuzverhör von Sprachmodellen

Forscher der Tel Aviv University und von Google haben einen interessanten Ansatz vorgeschlagen, um das Problem der KI-Halluzinationen zu bekämpfen: Sie setzen zwei unterschiedliche Sprachmodelle in ein Kreuzverhör, um mögliche Unwahrheiten durch Widersprüche aufzudecken.

Anwendung von Knowledge Graph

Eine andere vielversprechende Lösung für das Halluzinationsproblem der KI ist die Anwendung von Knowledge Graph. Knowledge Graph ist ein Tool von Writer, einer generativen KI-Schreibplattform. Es sammelt alle Inhalte aus einem Unternehmen in einer Graphdatenbank und dient als Inhaltsvalidator, indem es von Nutzern generierte Inhalte mit den vorhandenen Quellen abgleicht​ und so versucht, die Halluzinationen aufzulösen.

Glücklicherweise ist das Problem bei neueren Modellen, wie GPT-4 (ChatGPT Plus) weniger stark vorhanden, wie bei der kostenlosen Variante (GPT-3.5). Man sieht also, dass es ein Problem ist, an dem man mit geschickten Lösungsansätzen arbeiten kann.

Fazit

KI und insbesondere Modelle wie ChatGPT haben das Potenzial, viele Aspekte unseres Lebens grundlegend zu verändern. Sie bringen jedoch gerade - in dem aktuellen, neuartigen Zustand - auch Herausforderungen und Probleme mit sich, wie das Phänomen der Halluzination. Es ist wichtig, dass wir uns dieser Probleme bewusst sind und aktiv daran arbeiten, sie zu lösen.

Mit fortlaufender Forschung und Entwicklung können wir erwarten, dass KI-Modelle in der Zukunft immer genauer und verlässlicher werden. OpenAI ist mit der (erneuten) Veröffentlichung von “Browse with Bing” für ChatGPT Plus-Nutzer einen Schritt in die richtige Richtung gegangen, der eventuell dabei hilft, Halluzinationen vorzubeugen, indem im Internet nach aktuellen Daten gesucht wird.

Das funktioniert leider nur, solange die Website-Inhalte nicht auch durch komplett ungeprüfte, von ChatGPT und Co veröffentlichte Texte gepflastert sind. Aufgrund dessen bezweifeln manche Techexperten, dass die Halluzinationen genannten Unwahrheiten von Chatbots wie ChatGPT oder Claude jemals verschwinden werden.

FAQ: Häufig gestellte Fragen zum Thema

Was ist das Halluzinationsproblem der KI?

Halluzinationen in KI beziehen sich auf Situationen, in denen KI-Modelle, insbesondere Sprachmodelle, falsche oder irreführende Informationen generieren, die dennoch plausibel klingen. Dies kann dazu führen, dass Benutzer falsch informiert werden.

Wie kann das Halluzinationsproblem der KI gelöst werden?

Es gibt verschiedene Ansätze zur Lösung des Halluzinationsproblems der KI, darunter das Kreuzverhör von Sprachmodellen und die Verwendung von Knowledge Graphs. Beide Ansätze zielen darauf ab, die Genauigkeit der von KI-Modellen generierten Informationen zu verbessern.

Kann ich ChatGPT fragen, ob es etwas geschrieben hat?

ChatGPT hat kein "Wissen" darüber, welche Inhalte KI-generiert sein könnten oder was es generiert hat. Es erfindet manchmal Antworten auf Fragen wie "Hast du den Text geschrieben?" oder "Könnte das von einer KI geschrieben worden sein?". Diese Antworten sind zufällig und entbehren jeglicher Grundlage.

Was bedeutet das Kreuzverhör von Sprachmodellen?

Beim Kreuzverhör von Sprachmodellen werden zwei unterschiedliche KI-Sprachmodelle gegeneinander gestellt, um mögliche Unwahrheiten durch Widersprüche aufzudecken. Dies ist ein Ansatz, der von Forschern der Tel Aviv University und von Google vorgeschlagen wurde.

Kann ChatGPT lügen?

ChatGPT kann Informationen generieren, die nicht auf Fakten basieren, ein Phänomen, das als "KI-Halluzination" bezeichnet wird. Es ist jedoch wichtig zu betonen, dass ChatGPT nicht bewusst lügt - es hat kein Bewusstsein oder Verständnis für die Bedeutung der Texte, die es generiert.

Was heißt ChatGPT auf Deutsch?

ChatGPT ist ein Akronym und steht für "Chat Generative Pretrained Transformer". Auf Deutsch könnte man es als "Chat Generativer vortrainierter Transformer" übersetzen, aber in der Regel wird der englische Name verwendet.

Was kann man mit ChatGPT machen?

ChatGPT kann eine Vielzahl von Aufgaben ausführen, von der Beantwortung von Fragen bis hin zur Erstellung von Artikeln. Es ist jedoch wichtig zu beachten, dass die von ChatGPT generierten Informationen nicht immer korrekt sind und überprüft werden sollten.

Für mehr Antworten auf Deine Fragen schaue im OpenAI Help Center vorbei.

Zurück
Zurück

Claude 2 AI: Die KI-Revolution jenseits von Europa | Länderliste

Weiter
Weiter

DALL-E 3 ist da und kommt zu ChatGPT - KI-Bilder im Chat