taz.de -- Künstliche Intelligenz erzählt Quatsch: Keine Halluzination, sondern Bullshit

Wenn KI-Chatbots falsche Dinge erzählen, sagt man, dass sie halluzinieren. Eine neue Studie untersucht, warum dieser Begriff das Problem verfehlt.
Bild: KI-Chatbots – wer blickt da noch durch, aber wenn sie falsche Dinge erzählen, sagt man, dass sie halluzinieren Das ist Quatsch

Neue Technologie erfordert neue Sprache. KI-Chatbots wie ChatGPT umschreiben wir mangels besserer Alternativen mit Begriffen wie [1][Intelligenz oder gar Bewusstsein]. Wenn Software aber erfundene Fakten präsentiert, nennen wir das eine Halluzination. Tech-Firmen wie Meta und Google haben diese Bezeichnung während des KI-Booms der vergangenen Jahre popularisiert.

Die Studie

[2][Ein kürzlich erschienenes Paper] warnt nun vor dieser Begrifflichkeit und ihren Implikationen. Sie schaffe ein falsches Bild der Kompetenzen von KI-Chatbots. Die [3][Rede vom Halluzinieren] suggeriere, dass sie Fakten wahrnehmen würden, diese aber falsch interpretierten. Doch die Maschinen nehmen nicht wahr. Sie simulieren, ohne Bezug zur außersprachlichen Wirklichkeit, das menschliche Sprechen. So ist ihr Ziel vielmehr, überzeugend zu klingen, als präzise zu sein. Darum postulieren die Forschenden: [4][ChatGPT] ist Bullshit.

Bullshit ist nach dem Philosophen Harry G. Frankfurt alles, was gleichgültig gegenüber der Wahrheit geäußert wird. Im Gegensatz zur Lüge, die absichtlich einen Sachverhalt verdecken soll, ist Bullshit die Wahrheit schlicht egal. Die Verwendung von gut klingenden Wörtern und floskelhaften Formulierungen vermittelt etwa Fachkenntnis, wo keine ist. Und statt Aussagen zu revidieren, werden Fakten erfunden.

Das Forschungsteam untersuchte das Design der [5][Chatbots] vor diesem Hintergrund. Die Programme funktionieren auf der Basis von Large Language Models, welche mittels immenser Textmengen statistische Modelle von Sprache anfertigen. Sie berechnen wahrscheinliche Abfolgen von Wörtern. Hierfür ist keine Kenntnis ihrer Bedeutung nötig. Sie ist gar nicht vorhanden. Die Bots produzieren zwar überzeugend und fundiert klingende Äußerungen, benötigen dafür aber weder logisches Denkvermögen, noch einen Zugriff auf die von Menschen geteilte Realität. Ihre Aussagen sind, wenn überhaupt, zufällig wahr. Fehlaussagen und erfundene Fakten sind daher fester Bestandteil von Bots wie ChatGPT.

Was bringt’s?

Die Sprache, die wir zur Beschreibung von KI verwenden, beeinflusst unsere Wahrnehmung von ihr. PolitikerInnen, InvestorInnen und die Öffentlichkeit beurteilen den Einsatz der neuen Technologie nicht mit sachkundigem Verständnis der Programme. Breitenwirksame Bilder wie die Metapher der Halluzination schaffen deshalb folgenschwere Missverständnisse. Die Studie weist darauf hin und schlägt vor, die kognitiven Kompetenzen der KI-Chatbots vorsichtiger zu formulieren. Ihr Umgang mit Fakten muss kritischer begutachtet werden, wenn die Maschine mehr und mehr menschliche Hirnleistung ersetzt.

Auch AnwenderInnen sind beim Umgang mit Fakten gefragt. ChatGPT ist noch keine zwei Jahre alt und arbeitet ganz erfolgreich. Dem Menschen ist Bullshit halt oft gut genug.

10 Jul 2024

LINKS

[1] /Europarat-verhandelt-Abkommen/!5941771
[2] https://link.springer.com/article/10.1007/s10676-024-09775-5
[3] /ChatGPT-Identitaetsklau/!6006995
[4] /Kuenstliche-Intelligenz/!5948779
[5] /Chatbots-enttarnen/!6002321

AUTOREN

Nathan Pulver

TAGS

wochentaz
Zukunft
Schwerpunkt Künstliche Intelligenz
wochentaz
Fake News
Schwerpunkt Künstliche Intelligenz
Bot

ARTIKEL ZUM THEMA

Cognitive Offloading: Automatisierte Vergesslichkeit

Wir nutzen Navis und fragen ChatGPT nach Rezepten. Das kann zu weniger kognitiver Leistung führen. Doch wie können wir die Helfer produktiv einsetzen?

ChatGPT-Identitätsklau: Wenn Software zu träumen beginnt

ChatGPT habe ihm seine Identität geklaut, sagt Sebastian Schnitzenbaumer. Er will die KI-Firma verklagen. Ein Fall, der ins Grundsätzliche weist.

Künstliche Intelligenz: ChatGPT wird dümmer

Forscher*innen der Stanford Universität und der UC Berkeley haben Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt.

Künstliche Intelligenz via ChatGPT: Alles verändert?

Eine KI, die für uns Texte schreibt? Klingt toll. Und ist inzwischen Wirklichkeit. ChatGPT ist lustig, eloquent – und gefährlich.