taz.de -- OpenAI in der Kritk: Transparent gewaschen
Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso problematischer.
Es war eine turbulente Woche für OpenAI, das Unternehmen hinter der [1][KI-Anwendung ChatGPT]: Vorstellung der neuen Softwareversion, die alles übertrifft, was zuvor an KI zu sehen war. Neue Kritik an dem schon bekannten Problem, dass ChatGPT Quellen generiert, die nicht existieren. Und mutmaßlich ein gespannter Blick nach China, wo Konkurrent Baidu mit seinem Ernie Bot aber letztlich enttäuschte.
OpenAI lässt sich vermutlich gerade zu den bedeutendsten Unternehmen weltweit zählen. Es ist eines der ersten, die das Potenzial von [2][künstlicher Intelligenz (KI)] für die breite Masse an Menschen erahnbar und den aktuellen Stand erfahrbar gemacht hat. Und damit zeigt: Die KI der Zukunft wird mehr sein als eine Siri, die Anweisungen ständig missversteht, oder die beunruhigend fehleranfällige Software eines selbstfahrenden Autos. Sondern ein mächtiges, ernst zu nehmendes Werkzeug, dessen Möglichkeiten und Entwicklungspotenziale wir aktuell nur erahnen können.
Mit der Version 4.0 von ChatGPT wird das deutlich: Es ist eine [3][KI-Anwendung], die nicht entweder Wörter oder Bilder verarbeiten kann, sondern beides. Eine Entwicklung hin von einer sogenannten schwachen KI, die nur eine Disziplin beherrscht, zu einer zumindest etwas stärkeren. Es zeigt die Potenziale, aber gleichzeitig auch, dass noch viel an Weg übrig bleibt.
Nun ist OpenAI allerdings in einer anderen Disziplin überhaupt nicht stark. Und darauf haben Expert:innen ebenfalls in der vergangenen Woche hingewiesen. Da hat OpenAI seine 4er Version von ChatGPT vorgelegt – und in der selben Woche auch das [4][Forschungsdokument zur Software] veröffentlicht, unter dem schlichten Titel „GPT-4 Technical Report“. Darin zeigt sich das Unternehmen jedoch alles andere als „open“.
OpenAI total verschlossen
Im Gegenteil: Auf 99 Seiten erzählt es zwar viel, sagt aber wenig: „Angesichts der Konkurrenzsituation und der sicherheitstechnischen Implikationen von Großmodellen wie GPT-4 enthält dieser Bericht keine weiteren Details über die Architektur (einschließlich der Modellgröße), die Hardware, die Trainingsberechnung, Datensatzkonstruktion, Trainingsmethode oder Ähnliches.“ Also genau über die interessanten Punkte.
Die Verschlossenheit ist eine deutliche Abkehr von den Wurzeln und dem zugehörigen Namen. OpenAI – damit wollte die Firma signalisieren, dass es KI-Technologien mit einem Offenheits- ja, sogar einem Gemeinnützigkeitsanspruch in die Welt setzen wollte. Ein Gegengewicht zu Big Tech, bei denen Verschlossenheit und Intransparenz zum Geschäftsmodell dazugehören.
Doch Name und Anspruch von OpenAI sind nun zu einem bloßen Transparenz-Washing verkommen. Sogar die Verpackung ist angepasst: Stimmen aus der Open-Access-Community, die sich für einen freien Zugang zu Forschungsliteratur einsetzen, weisen darauf hin, dass die Vorlage zur Erstellung des Reports die gleiche ist, die auch bei Open-Access-Publikationen verwendet wird.
Selbst für Entwickler:innen eine Black Box
Das Problem geht über den konkreten Fall hinaus. Denn OpenAI setzt mit seinen Entwicklungen nicht nur Standards, was die Funktionen und die technische Raffinesse angeht. Sondern auch für den ethischen Umgang mit KI. Und da wäre Transparenz noch mal wichtiger als bei den klassisch programmierten Algorithmen. Schließlich sind KI-Anwendungen meist auch für die Entwickler:innen selbst eine Black Box.
Während etwa bei einem herkömmlich programmierten Empfehlungsalgorithmus vorhersagbar ist, mit welcher Datenbasis er zu welcher Empfehlung kommt, ist das bei einer KI meist nicht der Fall. Fragen wie: Wie wurde dieser Algorithmus trainiert? Mit welchen Trainingsdaten? Wo und wie haben Menschen nachgeholfen?, rücken stärker in den Vordergrund. Ein bisschen „ihr könnt uns vertrauen“ reicht da nicht.
Der [5][Deutsche Ethikrat, der am Montag eine Stellungnahme zum Thema KI vorlegte], spielt das Thema eine Ebene höher: Die Autor:innen benennen zwar das Spannungsfeld zwischen Geschäftsgeheimnis und Offenheit. Doch sie schreiben ebenfalls: „Auch dort, wo Systeme eine Quasi-Monopolstellung erlangen, sind hohe Anforderungen an Transparenz, Erklärbarkeit und Nachvollziehbarkeit zu stellen.“
Man kann es als Aufforderung an die Unternehmen selbst lesen. Aber vor allem ist es eine Hausaufgabenliste für die Politik, KI-Anwendungen noch genauer in den regulatorischen Fokus zu nehmen. Jetzt, wo langsam absehbar wird, wohin es gehen könnte.
20 Mar 2023
LINKS
AUTOREN
TAGS
ARTIKEL ZUM THEMA
Immer wieder generieren KI-Chatbots Falsches über Menschen. Einen Norweger hat es nun besonders schwer getroffen.
Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken? Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei.
Die Angst, die Maschine könne den Mensch ersetzen, ist so alt wie die Maschine. Bewahrheitet hat sie sich nie, und das wird sie auch bei der KI nicht.
Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den Anfang einer rasanten Entwicklung – die auch Risiken birgt.
Von wegen bald abgesetzt – unsere KI-Kolumnist*in Anic T. Wae schreibt einzigartigere Kolumnen als alle Literaten zusammen.
Von Algorithmen über Textbausteine bis smarte Kühlschränke: KI-Systeme nehmen Einfluss auf Entscheidungen. Wo bleibt da die Autonomie?
Eine künstliche Intelligenz, die schreibt – wird der Mensch als Autor:in bald überflüssig sein?