Die Einführung immer leistungsfähigerer großer Sprachmodelle wie GPT-3.5 hat in den letzten sechs Monaten großes Interesse geweckt. Allerdings hat das Vertrauen in diese Modelle abgenommen, da Nutzer festgestellt haben, dass sie Fehler machen können - und dass sie genauso wenig perfekt sind wie wir. (Die Einstellung der "Temperatur" bei GPT hat großen Einfluss darauf, wie deterministisch die KI arbeiten soll)
Ein Sprachmodell, das falsche Informationen ausgibt, wird als "halluzinierend" bezeichnet, und es gibt mittlerweile große Anstrengungen in der Forschung, diese Wirkung zu minimieren. Doch während wir mit dieser Aufgabe ringen, lohnt es sich, über unsere eigene Fähigkeit zur Verzerrung und Halluzination nachzudenken - und wie sich dies auf die Genauigkeit der von uns erstellten Sprachmodelle auswirkt.
Indem wir den Zusammenhang zwischen dem halluzinatorischen Potenzial von KI und unserem eigenen Verständnis erfassen, können wir intelligente KI-Systeme entwickeln, die letztendlich dazu beitragen, menschliche Fehler zu reduzieren.
Wie Menschen halluzinieren
Es ist kein Geheimnis, dass Menschen Informationen erfinden. Manchmal tun wir dies absichtlich, manchmal versehentlich. Letzteres ist eine Folge kognitiver Verzerrungen oder "Heuristiken": geistige Abkürzungen, die wir aufgrund vergangener Erfahrungen entwickeln.
Diese Abkürzungen entstehen oft aus der Notwendigkeit heraus. Zu jedem gegebenen Zeitpunkt können wir nur eine begrenzte Menge an Informationen verarbeiten, die unsere Sinne überfluten, und uns nur an einen Bruchteil aller Informationen erinnern, mit denen wir jemals konfrontiert wurden.
Daher muss unser Gehirn auf gelernte Assoziationen zurückgreifen, um die Lücken zu füllen und schnell auf die Frage oder das Dilemma zu reagieren, das uns gegenübersteht. Mit anderen Worten, unser Gehirn errät, welche Antwort aufgrund begrenzten Wissens die richtige sein könnte. Dies wird "Konfabulation" genannt und ist ein Beispiel für eine menschliche Verzerrung.
Unsere Verzerrungen können zu schlechtem Urteilsvermögen führen. Nehmen wir die Automatisierungsverzerrung, bei der wir dazu neigen, Informationen, die von automatisierten Systemen (wie ChatGPT) generiert wurden, gegenüber Informationen aus nicht-automatisierten Quellen zu bevorzugen. Diese Verzerrung kann dazu führen, dass wir Fehler übersehen und sogar auf falsche Informationen reagieren.
Eine weitere relevante Heuristik ist der Halo-Effekt, bei dem unser erster Eindruck von etwas unsere nachfolgenden Interaktionen damit beeinflusst. Und die Flüssigkeitsverzerrung beschreibt, wie wir Informationen bevorzugen, die auf leichte Weise präsentiert werden.
Der springende Punkt ist, dass menschliches Denken oft von seinen eigenen kognitiven Verzerrungen und Verzerrungen gefärbt ist, und diese "halluzinatorischen" Tendenzen treten weitgehend außerhalb unseres Bewusstseins auf.
Wie KI halluziniert
In einem Kontext von Sprachmodellen ist Halluzination etwas anderes. Ein Sprachmodell versucht nicht, begrenzte geistige Ressourcen zu schonen, um die Welt effizient zu verstehen. "Halluzination" beschreibt in diesem Zusammenhang lediglich den gescheiterten Versuch, eine geeignete Antwort auf eine Eingabe vorherzusagen.
Dennoch gibt es einige Ähnlichkeiten zwischen dem Halluzinieren von Menschen und Sprachmodellen, da auch Sprachmodelle dies tun, um "Lücken zu füllen".
Sprachmodelle generieren eine Antwort, indem sie vorhersagen, welches Wort in einer Sequenz wahrscheinlich als nächstes auftauchen wird, basierend auf dem Vorherigen und auf den Assoziationen, die das System im Rahmen des Trainings gelernt hat.
Wie Menschen versuchen Sprachmodelle, die wahrscheinlichste Antwort vorherzusagen. Im Gegensatz zu Menschen tun sie dies jedoch, ohne zu verstehen, was sie sagen. So kann es passieren, dass sie Unsinn ausgeben.
Warum Sprachmodelle halluzinieren, hat unterschiedliche Gründe. Einer der Hauptgründe ist das Training mit fehlerhaften oder unzureichenden Daten. Weitere Faktoren sind die Art und Weise, wie das System trainiert wird, um aus diesen Daten zu lernen, und wie dieses Training durch weitere Schulung unter Menschen verstärkt wird.
Gemeinsam besser werden
Wenn sowohl Menschen als auch Sprachmodelle (wenn auch aus unterschiedlichen Gründen) anfällig für Halluzinationen sind, welches ist dann leichter zu beheben?
Die Behebung der Schulungsdaten und Prozesse, die Sprachmodelle unterstützen, mag einfacher erscheinen als die Behebung unserer selbst. Aber dies berücksichtigt nicht die menschlichen Faktoren, die KI-Systeme beeinflussen (und ist ein Beispiel für einen weiteren menschlichen Bias, der als fundamentale Attributionsfehler bekannt ist).
Die Realität ist, dass unsere Schwächen und die Schwächen unserer Technologien untrennbar miteinander verbunden sind und dass die Behebung eines Problems dazu beiträgt, das andere zu beheben. Hier sind einige Möglichkeiten, wie wir das tun können.
- Verantwortungsvolles Datenmanagement. Verzerrungen in KI entstehen oft durch verzerrte oder begrenzte Trainingsdaten. Möglichkeiten, dies anzugehen, sind unter anderem sicherzustellen, dass Trainingsdaten vielfältig und repräsentativ sind, Algorithmen zu entwickeln, die Verzerrungen erkennen, und Techniken wie Datenabgleich einzusetzen, um verzerrte oder diskriminierende Muster zu entfernen.
- Transparenz und erklärbare KI. Trotz der oben genannten Maßnahmen können Verzerrungen in der KI bestehen bleiben und schwer zu erkennen sein. Indem wir untersuchen, wie Verzerrungen in ein System gelangen und sich darin ausbreiten können, können wir die Präsenz von Verzerrungen in den Ausgaben besser erklären. Dies ist die Grundlage für "erklärbare KI", die darauf abzielt, die Entscheidungsprozesse von KI-Systemen transparenter zu machen.
- Die Interessen der Öffentlichkeit in den Vordergrund stellen. Die Anerkennung, Verwaltung und das Lernen aus Verzerrungen in einer KI erfordert menschliche Verantwortung und die Integration menschlicher Werte in die KI-Systeme. Dies zu erreichen bedeutet, sicherzustellen, dass die Stakeholder Menschen aus verschiedenen Hintergründen, Kulturen und Perspektiven repräsentieren.
Indem wir auf diese Weise zusammenarbeiten, können wir intelligente KI-Systeme aufbauen, die dazu beitragen können, alle unsere Halluzinationen unter Kontrolle zu halten.
Zum Beispiel wird KI im Gesundheitswesen verwendet, um menschliche Entscheidungen zu analysieren. Diese maschinellen Lernsysteme erkennen Inkonsistenzen in menschlichen Daten und geben Hinweise, die den Kliniker darauf aufmerksam machen. So können diagnostische Entscheidungen verbessert werden, während die menschliche Verantwortung gewahrt wird.
In einem Kontext der sozialen Medien wird KI eingesetzt, um menschliche Moderatoren beim Erkennen von Missbrauch zu unterstützen, zum Beispiel durch das Projekt Troll Patrol, das sich gegen Gewalt gegen Frauen im Internet richtet.
Ein weiteres Beispiel: Die Kombination von KI und Satellitenbildern kann Forschern helfen, Unterschiede in der nächtlichen Beleuchtung zwischen Regionen zu analysieren und dies als Maßstab für die relative Armut einer Region zu verwenden (wobei eine höhere Beleuchtung mit weniger Armut korreliert ist).
Wichtig ist, dass wir bei der Arbeit an der Verbesserung der Genauigkeit von Sprachmodellen nicht ignorieren sollten, wie deren aktuelle Fehlbarkeit uns den Spiegel vorhält.
Quelle: Both humans and AI hallucinate — but not in the same way