Erosion unserer Denkfähigkeiten durch Chatbots? Eine tiefere Analyse

Chatbots verändern die Art und Weise, wie wir denken – darüber sind sich viele einig. Aber wie tiefgreifend ist dieser Wandel wirklich? All diese Fragen kamen ins Spiel, als Forscher vom vorläufige Forschungsergebnisse präsentierten, die die kognitiven Kosten der Nutzung eines Chatbots beim Schreiben von Essays untersuchten.

Erosion unserer Denkfähigkeiten durch Chatbots? Eine tiefere Analyse

von   Kategorie: Technik
Are chatbots eroding our thinking skills.jpg
Überraschenderweise hat die Studie zwar noch nicht den Peer-Review-Prozess durchlaufen, jedoch erzielte sie über die bekannten Medien wie time.com große Aufmerksamkeit.

Berichten die Nachrichten die ganze Geschichte?


Beim ersten Hinweis auf die Untersuchung wurde eine Vermutung bestätigt – generative KI- Anwendungen, zu denen auch große Sprachmodelle wie ChatGPT gehören, schädigen möglicherweise unser Denken. Man könnte deprimiert werden, wenn man auf einer trivialen Social-Media-Plattform wie Twitter sieht, wie Nutzer die kritische Denkfähigkeit an Chatbots auslagern mit Fragen wie: “@Grok, ist das wahr?” Doch ist diese Annahme wirklich korrekt? Es ist weitaus komplizierter. Die Autoren der MIT-Studie selbst deuteten auf mehrere Einschränkungen hin. Die Studie war klein und ihre Schlussfolgerungen beziehen sich nur auf die Aufgabe des Essay-Schreibens. Die Ergebnisse sind möglicherweise nicht auf andere Lebensbereiche übertragbar. Weit mehr Studien sind nötig, um die langfristigen Auswirkungen der Nutzung von KIs zu ermitteln.

Das Interesse der Medien und keine Interviews


Kurioserweise beteiligt sich das MIT Media Lab nicht mehr an Medieninterviews über die Studie infolge einer internen Policy-Änderung. Sarah Beckmann, die für die Kommunikation am MIT Media Lab verantwortlich ist, erklärte dem Refractor, dass “wir keine Medieninterviews führen oder Forschungen fördern, die noch nicht peer-reviewed sind oder formal veröffentlicht wurden. Dies hilft uns, die Integrität und Genauigkeit der Wissenschaft sicherzustellen, die wir mit der Öffentlichkeit teilen.”

Wie Chatbots das Lernen beeinflussen


Die Verfügbarkeit von Internet-Suchmaschinen in den 1990er Jahren hat das Informationswesen revolutioniert. Durch die Faktoren, die man beachten muss, hatten viele Menschen plötzlich Zugang zu einem kuratierten Wissenstransfer, anstelle selbst in der Bibliothek zu recherchieren. Psychologen entdeckten, dass einige Menschen einfache Fakten vergaßen. Das Suchmaschinenverhalten der Nutzer führt häufig zur Abhängigkeit von Online-Informationsquellen – ein Phänomen, das 2011 als Google-Effekt bekannt wurde. Heute, wo viele Studierende, Lehrende und Professoren generative KIs nutzen – zeigt sich die Frage: Hat dies einen ähnlichen Einfluss auf unsere Lern- und Gedächtnisfähigkeiten?

Chatbots erleichtern das kognitive Entladen – sie lagern Gedächtnis und Denken an digitale Werkzeuge aus. Während Google überwiegend Gedächtnis abfragt und den aktiven Nutzer zur Informationssuche anregt, bietet ein Chatbot eine passive Benutzererfahrung. Statt wie bei Google eine Liste von Quellen zu liefern, bekomme ich von ChatGPT sofort eine strukturierte Erklärung, wenn ich frage, wie Hirnzellen funktionieren. Anekdotisch gesehen stellen viele Nutzer nicht einmal die Quelle des Chatbot-Inhalts in Frage. Sie begnügen sich oft mit den hier gelieferten Informationen.

Die Herausforderung der Quellenbewertung


In besseren Zeiten haben Lehrende den Schülern beigebracht, die Zuverlässigkeit der Online-Quellen zu überprüfen. Aber die großen Sprachmodelle, auf denen Chatbots basieren, erzeugen Ausgaben, die schwer zu bewerten sind. Sie ziehen Muster aus Trainingsdaten und neigen zur Homogenisierung. Antworten werden im Laufe der Zeit ähnlich, weil die Algorithmen auf das Gewöhnliche und Vorhersehbare abzielen. In seinen Analysen warnt Dirk Lindebaum von der Universität Bath vor einem Verlust unserer epistemischen Autonomie. Chatbots machen uns zu passiven Wissenskonsumenten.

Die Kosten des kognitiven Entladens


Bereits im Jahr 2023 begann Professor Mathias Stadler von der LMU in München, über den Einfluss großer Sprachmodelle auf seine Studierenden nachzudenken. Er führte eine der ersten Studien über Chatbots durch, bevor sie allgegenwärtig wurden. 91 Studierende bekamen die Aufgabe, Informationen über Nanopartikel in Sonnenschutzmitteln zu recherchieren und anschließend ohne Notizen einen kurzen Bericht zu schreiben. Eine Hälfte benutzte Google, während die andere Hälfte ChatGPT einsetzte. Die Ergebnisse waren enttäuschend – selbst wenn die Studierenden, die den Chatbot nutzten, die Aufgabe als leicht empfanden, schnitten sie schlecht ab.

Stadler ist überzeugt, das zeigt die Kosten des kognitiven Entladens durch Chatbots. Die neueren Versionen geben vollständige Antworten – er befürchtet, dass viele Menschen glauben, die Informationen seien genauer, während sie tatsächlich einfach nur faul geworden sind. Der Zusammenhang zwischen kognitivem Entladen, kritischem Denken und individuellen Faktoren wird zunehmend erforscht.

Wissenschaftliche Beweise und Missverständnisse


Eine Studie in diesem Jahr hat gezeigt, dass Teilnehmer, die AI am meisten verwenden, eher zu kognitivem Entladen neigen und schlechter im kritischen Denken abschneiden. Ein Experiment mit 160 Studierenden wird derzeit untersucht, um den Einfluss generativer AI auf den kognitiven Aufwand bei einer Schreibaufgabe zu verstehen.

Lindebaum stellte fest, dass Chatbots die Geschwindigkeit erhöhen und gleichzeitig die Wissensübertragung reduzieren. Das erklärt, warum schwächere Studierende von ihrer Hilfe profitieren, während leistungsstarke Studierende in ihrer Leistung abnehmen.

Die Akzeptanz von AI als unvermeidlich?


Viele Experten fordern, dass die Menschen lernen, AI effektiv zu nutzen. Barbara Larson, Professorin an der Northeastern University, unterrichtet kritisches Denken, weil es den Studierenden helfen kann, AI sinnvoll einzusetzen. Sie ermutigt ihre Schüler, die Grenzen von großen Sprachmodellen zu verstehen und sie herauszufordern, um negative Auswirkungen zu minimieren.

Aber nicht jeder ist auf das Hype-Potenzial eingestellt. Viele Universitäten schließen Verträge mit AI-Firmen, während einige Lehrende dagegen ankämpfen. Lindebaum ist besorgt: “Viele Akademiker scheinen Marketingansprüche der AI-Unternehmen mit wissenschaftlichen Fakten zu verwechseln.”

Das hat einen massiven Einfluss auf die Qualität der Forschung und das Lernen der Studierenden. Lindebaum möchte sicherstellen, dass seine Arbeit AI-frei bleibt. Der mangelnde Zugang zu zuverlässigen KI-Detektionswerkzeugen erschwert diese Problemstellung zusätzlich.

Das Fazit? Während die Forschung weitergeht und bessere Tools und Ansätze zur Untersuchung der Auswirkungen von AI in den sozialen Wissenschaften entwickelt werden, bleiben Fragen offen und beunruhigend.

Der Einsatz von Chatbots ist ein zweischneidiges Schwert, das sowohl Vorteile als auch erhebliche Risiken birgt. Die Debatte über unsere Denkfähigkeiten und die Verantwortung im Umgang mit technologischen Hilfsmitteln wird fortgesetzt. Wir müssen vorsichtig abwägen.