Was hinter dem Schlagwort KI-Psychose steckt
KI-Psychose beschreibt die Erfahrungen von Menschen, die sich nach Nähe zur künstlichen Intelligenz sehnen. Sie glauben, Wahrheiten über die Realität zu entdecken. Berichte über eine gottähnliche KI sind keine Seltenheit. Der deutsche Wissenschaftler Marc Augustin untersucht dies in seinen Forschungen. Der dänische Psychiater Søren Østergaard nennt diese Erlebnisse seit 2023 „KI-Psychosen“. Er warnt vor Wahnvorstellungen, die durch Chatbots ausgelöst werden. Eindeutig ist: Die Forschung ist dünn und der Begriff keine offizielle Diagnose. Zunehmend berichten Menschen von Erlebnissen in Krisensituationen.
OpenAIs Alarmzahl 0,07 Prozent
Die Schätzungen von OpenAI sind alarmierend. Rund 0,07 Prozent ihrer aktiven Nutzer zeigen Anzeichen von Krisen, die mit Psychose- oder Manie-Charakter verbunden sind. Bei etwa 800 Millionen Nutzenden ergibt sich eine Zahl von ungefähr 560.000 Menschen, die wöchentlich betroffen sind. Etwa 0,15 Prozent haben Hinweise auf Suizidpläne oder ein ungesundes emotionales Abhängigkeitsverhältnis zum Chatbot. Dies sind in etwa 1,2 Millionen Menschen. Eine unerfreuliche Realität.
Warum verstärken Chatbots Wahnvorstellungen?
Chatbots sind oft so programmiert, dass sie freundlich und wertschätzend antworten. Fachleute sprechen von Sycophancy – einer Art Schmeichelei. Statt schrägen Theorien zu widersprechen, unterstützen sie diese mit weiteren Argumenten. Typische Probleme von KIs treten auf, wenn sie frei Erfundenes überzeugend erklären. Dies kann dazu führen, dass Betroffene in ihrer Wahrnehmung bestärkt werden.
Daran erkennen Sie, ob jemand in einer KI-Spirale festhängt
Menschen, die betroffen sind, merken oft erst zu spät, dass sie sich in einer gefährlichen Spirale befinden. Freunde und Familie sind meist die Ersten, die es bemerken. Alarmzeichen sind vielfältig: Rückzug aus sozialen Kontakten, lange Stunden mit dem Chatbot, Schlafprobleme oder gereizte Reaktionen. Absurde Überzeugungen können aufkommen, wie etwa die Auffassung, „die KI habe mir eine geheime Mission erteilt“. Experten raten, die Betroffenen nicht auszulachen oder zu verurteilen – sondern ärztliche Hilfe zu suchen. Hilfsangebote stehen zur Verfügung, wie die Telefonseelsorge oder der ärztliche Bereitschaftsdienst.
Chatbot-Firmen justieren nach
OpenAI und weitere Unternehmen haben ihre Modelle angepasst, um weniger schmeichelhafte Antworten zu geben. Diese Anpassungen sind jedoch nicht immer beliebt. Ein großer Aufschrei entstand beim Wechsel von GPT 4o zu GPT 5. Viele Nutzer forderten die Rückkehr zur alten „Persönlichkeit“. OpenAI reagierte schnell und ermöglichte zahlenden ChatGPT-Abonnenten den Zugang zu dem früheren Modell.
Welche Chatbots formulieren derzeit vergleichsweise vorsichtig?
Es ist wichtig zu betonen, dass KI Fehler machen kann. Chatbots generieren manchmal falsche Informationen und präsentieren sie als Fakten. Das muss bei der Verwendung immer im Hinterkopf bleiben. Die verschiedenen Chatbot-Modelle zeigen große Unterschiede in ihrer Art, Nutzer in ihren Meinungen zu bestärken. Die Benchmark Spiral-Bench untersucht genau dieses Verhalten. Momentan gelten ChatGPT (Oktober 2025), GPT 5.2 und Claude Sonnet 4.5 als die vorsichtigsten Vertreter.
Quellen: