taz.de -- ChatGPT mit Tücken: Kein Entkommen vor der KI

Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den Anfang einer rasanten Entwicklung – die auch Risiken birgt.
Bild: Eine der nächsten Entwicklungen, in denen KI verschiedene Bereiche verbindet, könnte die Robotik sein

Berlin taz | Wie wird Künstliche Intelligenz (KI) unsere Gesellschaft verändern? Und welche Weiterentwicklungen sind in nächster Zeit zu erwarten? Mit der Veröffentlichung [1][des KI-Chatbots ChatGPT] sind diese Fragen nicht nur in der Wissenschaft, sondern [2][auch in der Gesellschaft in den Vordergrund gerückt]. „Ich würde das als eine technologische Revolution bezeichnen“, sagte der KI-Experte Hinrich Schütze bei einem Gespräch des Science Media Centers am Donnerstag zu den jüngsten Entwicklungen.

Revolutionär sei unter anderem die Menge der verwendeten Trainingsdaten und der Fortschritt, dass ein Chatbot auch in der Lage sei, daraus dialogische Situationen zu generieren. Und bei aller Kritik an den Falschinformationen, die ChatGPT erzeugt: Im Vergleich zur ersten Generation an KI-Textgeneratoren, so Schütz, hätten sich grobe Fehler und Probleme wie Rassismus und Falschinformationen „um Größenordnungen verbessert“.

Das US-Unternehmen [3][OpenAI] hatte ChatGPT im November vorgestellt. Die KI wurde mit großen Textmengen trainiert und generiert auf Basis dieser Trainingsdaten neue Texte. In der vergangenen Woche wurde für zahlende Kund:innen eine neue Version freigeschaltet. Die kann nicht nur Texte, sondern auch Bilder verarbeiten. Expert:innen nennen das Multimodalität. Diese Multimodalität ist ein erster Schritt hin von einer schwachen KI, die nur eine Disziplin beherrscht, zu einer starken KI, die viele Bereiche miteinander verbindet.

Mit ChatGPT hat es eine KI-Anwendung erstmals geschafft, Künstliche Intelligenz für eine breite Masse an Menschen erfahrbar zu machen – sowohl was die Potenziale als auch was die Grenzen angeht. Als besonders problematisch gilt, dass das Programm auch in nennenswertem Umfang [4][Falschinformationen generiert]. Diese sind für Nutzer:innen jedoch nicht direkt erkennbar, denn ChatGPT gibt keine Quellen für die erstellten Texte an.

[5][Nicole Krämer, Professorin für Sozialpsychologie an der Universität Duisburg-Essen], wies auf ein weiteres Problem hin: „Menschen verstehen viel zu wenig, wie solche Systeme funktionieren.“ Das führe zu Fehleinschätzungen – einerseits bezüglich des Vertrauens, das der Software entgegengebracht werde. Andererseits aber auch in Bezug auf den Umgang mit den eigenen Daten. Menschen vertrauten KI-Systemen wie ChatGPT, aber auch Amazons Alexa zahlreiche persönliche Daten an.

„Die Gefahr ist nicht unbedingt die einzelne Info, die ich durch meine Anfrage an das System reingebe, sondern die Tatsache, dass das wieder mit anderen Daten zusammengebracht werden kann“, warnte sie. Hier sei der [6][Gesetzgeber gefordert]. Der müsse mindestens sicherstellen, dass die Nutzer:innen sich tatsächlich darüber im Klaren seien, welche Daten wie verarbeitet würden.

Kaum ein digitales Dasein ohne KI

Das wäre um so wichtiger, weil es Krämer zufolge in den kommenden Jahren immer schwieriger werde, keine Daten an eine KI zu liefern. Selbst wer sich keinen Sprachassistenten wie Alexa in die Wohnung holt, auf ChatGPT und KI-gestützte Suchmaschinen verzichtet, nutze vielleicht soziale Medien – und auch da würde unter anderem KI über die Sortierung und Sichtbarkeit von Nachrichten eine Rolle spielen. „Ich glaube, ganz entkommen kann man der KI nicht.“

[7][Schütze, Inhaber des Lehrstuhls für Computerlinguistik und Direktor des Centrums für Informations- und Sprachverarbeitung an der Ludwig-Maximilians-Universität München], wies ebenso auf die Kehrseiten der neuen Technologie hin: Berufsfelder, die überflüssig würden, eine zunehmende Intransparenz der Systeme, wenn Menschen bei Suchanfragen nur noch Antworten, aber keine Quellen mehr angezeigt bekommen.

Und: „Es wird die Versuchung bestehen, Entscheidungen durch diese Maschinen machen zu lassen.“ In den Bereichen Recht und Vermögensberatung beispielsweise, aber auch in der Medizin. Das Problem dabei: Die Entscheidung der KI komme mit einer hohen Glaubwürdigkeit daher – dabei sei die Sicherheit der Aussage überhaupt nicht einschätzbar. „Und die Menschen sind nicht daran gewöhnt, dass jemand mit hundertprozentiger Sicherheit und Selbstvertrauen spricht, aber völlig falsch liegt.“ Das müssten wir als Gesellschaft lernen und das werde „ein schwieriger Prozess.“

Eine der nächsten Entwicklungen, in denen KI verschiedene Bereiche verbindet, könnte die Robotik sein. [8][Marc Toussaint ist Leiter des Fachgebietes Intelligente Systeme an der Technischen Universität Berlin] und hat selbst an einem KI-Modell mitgearbeitet, das Sprache und Robotik verbindet. Ein Roboter, ausgestattet mit Kamera und Greifarm, konnte so Sprachbefehle ausführen – und etwa Chips aus der richtigen Schublade holen. Toussaint teilt den Revolutionsgedanken: Mit der „Verschränkung von Sprache und physischer Welt“ eröffneten sich ganz neue Möglichkeiten.

Doch Revolution hin oder der – Schütze warnt gleichzeitig davor, zu viel Potenzial in den neuesten Entwicklungen zu sehen. „Wir haben noch keine echte Künstliche Intelligenz erreicht“, sagte er. Die sehe er erst, wenn bei der KI ein „tiefes Verständnis der physischen und sozialen Welt“ erreicht sei – und da rechne er noch mit jahrzentelanger Arbeit.

24 Mar 2023

LINKS

[1] /OpenAI-in-der-Kritk/!5922783
[2] /ChatGPT-loest-Bildungskrise-aus/!5920652
[3] /OpenAI-in-der-Kritk/!5922783
[4] /Kuenstliche-Intelligenz/!5905841
[5] https://www.uni-due.de/sozialpsychologie/kraemer
[6] /Kuenstliche-Intelligenz-in-Deutschland/!5908323
[7] https://schuetze.cis.lmu.de/
[8] https://www.user.tu-berlin.de/mtoussai/

AUTOREN

Svenja Bergt

TAGS

Roboter
Technologie
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Kolumne Digitalozän
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Kriminalität
Technologie
Interview
Technischer Fortschritt
Transparenz
Lesestück Recherche und Reportage
Bot

ARTIKEL ZUM THEMA

Beschwerde gegen ChatGPT: Wenn die KI einem Nutzer einen Mord zuschreibt

Immer wieder generieren KI-Chatbots Falsches über Menschen. Einen Norweger hat es nun besonders schwer getroffen.

Leben zwischen KI und Supermarktregal: Wenn Kaffee zu Albträumen führt

Supermarkt oder Internet? Das kann beim Einkaufen zur existenziellen Frage werden. Und zu einer, die sich manchmal nur mit Kaffee durchstehen lässt.

Osnabrücker Höflichkeits-Forschung: „Nicht schlecht“ kann alles heißen

Nicole Gotzner von der Universität Osnabrück erforscht, wie höfliches Sprechen funktioniert. Meist geht es darum, das Gesicht zu wahren.

EU-Regulierung für ChatGPT und Co.: Keine Massenüberwachung

EU-Abgeordnete stimmen für Auflagen für Künstliche Intelligenz. Bürgerrechtler:innen äußern sich positiv. Das war beim Vorschlag des Rats noch anders.

Falschaussagen der KI: Rufschädigung durch ChatGPT

Die KI-Anwendung bezeichnete den australischen Bürgermeister Brian Hood fälschlicherweise als Kriminellen. Dagegen will er vorgehen.

Moratorium über Umgang mit KI: Pause mit Problemen

Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken? Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei.

Professorin über künstliche Intelligenz: „Empathie und Wertschätzung“

Sucht, Schulden, Kindererziehung – bei vielen Problemen können Online-Beratungsstellen via Chat und Mail helfen. Auch mit einer KI?

KI in Wissenschaft und Journalismus: Mensch und Maschine

Die Angst, die Maschine könne den Mensch ersetzen, ist so alt wie die Maschine. Bewahrheitet hat sie sich nie, und das wird sie auch bei der KI nicht.

OpenAI in der Kritk: Transparent gewaschen

Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso problematischer.

ChatGPT löst Bildungskrise aus: Hausaufgaben aus der Maschine

Schüler überlassen das Schreiben ganzer Aufsätze einer künstlichen Intelligenz. Kritiker fürchten, dass der Persönlichkeitsentwicklung dadurch etwas Zentrales verlorengeht. Stimmt das?

Experte über KI-Textgeneratoren: „Systeme sind keine Menschen“

Erst ChatGPT, nun Googles Bard. Der Digitalisierungsexperte Wolfgang Schulz spricht über Chancen, Risiken und die Bewusstseinsfrage.