taz.de -- Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern“

Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI.
Bild: Lernfähig: In der Kunst-Performance „La Classe“ agieren KI-gesteuerte Roboter als Schüler:innen

wochentaz: Frau Wachter, wo hat künstliche Intelligenz zuletzt Ihr Leben beeinflusst?

Sandra Wachter: Ich benutze für meine wissenschaftliche Arbeit eine Diktiersoftware. Die lernt mit der Zeit immer genauer, wie meine Stimme klingt, welche Formulierungen ich einsetze und welche Fachbegriffe ich verwende. Daher wird sie immer besser darin, das, was ich sage, auch richtig aufzuschreiben.

Ist das ein Beispiel dafür, wie KI das Leben positiv beeinflusst?

Absolut. Ich habe meine Gedanken sehr strukturiert im Kopf, aber um sie aufzuschreiben, brauche ich viel länger als für das Sprechen. Daher ist diese Software eine große Hilfe für mich. Aber es gibt auch unzählige unerfreuliche oder problematische Anwendungen.

An welche denken Sie da vor allem?

Sehr problematisch sind Bereiche, in denen KI wichtige Entscheidungen über Menschen trifft. Zum Beispiel, ob jemand einen Job bekommt oder ob jemand ins Gefängnis gehen muss oder [1][welche medizinische Diagnose gestellt wird]. Das ist auch deshalb problematisch, weil KI aus den Daten der Vergangenheit lernt.

Wenn also beispielsweise Banken eine Personengruppe in der Vergangenheit bei der Vergabe von Krediten benachteiligt haben, dann findet sich das auch in den Trainingsdaten wieder, aus denen die KI lernt. Dadurch führt sie die Benachteiligung fort.

Diesen Problemen widmet sich der sogenannte AI Act, das bislang weltweit umfangreichste Regelwerk zu KI. In der kommenden Woche stimmt das EU-Parlament darüber ab. Ist Europa auf dem richtigen Weg?

Es ist richtig, dass Europa hier vorangeht und die Initiative ergreift, bevor die technische Entwicklung uns alle überrollt. Auch inhaltlich macht die EU einiges richtig: So hat man sich etwa für bestimmte Lebensbereiche Risikokategorien überlegt und definiert, wo besonders viel Schutz nötig ist – zum Beispiel in der Arbeitswelt oder in der Rechtsprechung.

Was ist nicht gut am Gesetzesvorhaben?

Ein großes Problem ist das Conformity Assessment. Das bedeutet, dass Entwickler selbst bewerten, ob ihre KI-Produkte dem AI Act und dessen Standards entsprechen. Die Entwicklung dieser Standards wird aber ebenfalls vor allem von der Industrie beeinflusst. Und sie schätzt auch das Risiko der eigenen Anwendung ab und soll Maßnahmen ergreifen, um diese zu minimieren.

Das ist zwar grundsätzlich gut, aber man muss sich auch erinnern, wie in der Vergangenheit in der Branche mit kritischen internen Stimmen umgegangen wurde: Die Informatikerin Timnit Gebru etwa [2][musste Google verlassen], nachdem sie auf Probleme von KI hingewiesen hatte. Und bei mehreren großen Tech-Unternehmen werden Ethikabteilungen verkleinert oder gleich eingestampft, etwa bei Twitter.

Wie ginge es besser?

Es müssten externe Audits vorgeschrieben werden, von Institutionen, die nichts mit den Herstellern selbst zu tun haben.

Wie viel Macht dürfen wir KI geben, ohne dass es zum Problem wird für die Gesellschaft?

Die Frage muss vor allem sein: Wo setzen wir KI ein? Es gibt Dinge, die kann KI großartig. Rechnen zum Beispiel, Muster erkennen oder Prozesse, die bereits optimiert sind, automatisieren. Aber worin sie immer schlecht sein wird: Dinge zu verbessern. Das liegt in der Natur der Sache, schließlich lernt KI aus Daten, die es schon gibt.

Ist KI strukturkonservativ?

Ja, auf alle Fälle. Deshalb muss man sich auch von dem Gedanken verabschieden, dass KI irgendetwas objektiver machen würde als Menschen. Nein, sie führt einfach nur das fort, was sie aus den Trainingsdaten gelernt hat. Aber – und das ist die Falle – sie erweckt im Gegensatz zum Menschen den Anschein von Objektivität.

Wer KI einsetzt, sollte daher immer davon ausgehen, dass sie einen Bias hat, also eine Verzerrung, die sie aus den Trainingsdaten gelernt hat. Ein Beispiel: wenn im Personalauswahlprozess Frauen benachteiligt werden, einfach weil die in der Vergangenheit seltener eingestellt wurden, obwohl sie ebenso geeignet sind für den Job.

Wie lässt sich diesem Bias entgegenwirken?

Der erste Schritt ist Transparenz. Man muss wissen und offenlegen, wie der Datensatz aussieht, mit dem eine KI trainiert wurde. Wenn es zum Beispiel um eine Gesichtserkennung geht – [3][was sind denn für Gesichter drin in den Trainingsdaten], wie sehen die aus? Der zweite Schritt ist ein aktives Entgegenwirken.

Wenn ich feststelle, dass nur weiße oder nur männliche Gesichter in den Trainingsdaten sind, dann muss ich nachbessern. Man kann und sollte solche Systeme auch immer auf Bias testen. Zusammen mit zwei Kollegen habe ich dafür zwei Tests entwickelt, die jeder nutzen kann. Ein Tool zum Bias-Testen und eines zum Bias-Reduzieren.

Was passiert, wenn jemand so einen Test über eine KI rüberlaufen lässt?

Wenn zum Beispiel ein Start-up eine KI zur Personalauswahl entwickelt hat und die einen starken Genderbias hat, dann weist der Test darauf hin. Dann muss der Hersteller entscheiden, ob es tatsächlich Absicht ist, dass die KI Bewerberinnen aussortiert – und falls nicht, die Ursache herausfinden und beheben. Den Test haben wir als Open-Source- und Open-Access-Anwendung bereitgestellt, sodass tatsächlich alle ihn nutzen können, und er ist auch schon im Einsatz, zum Beispiel bei Amazon.

In den vergangenen Wochen gab es zahlreiche [4][Warnungen vor KI]. Der Politologe Ian Bremmer hält sie für eine der großen Gefahren für die Demokratie.

Es gibt auf alle Fälle klare Risiken. Momentan sehen wir vor allem Neuerungen im Bereich generative KI. Das sind Programme, mit denen sich etwa Bilder oder Texte generieren lassen. [5][Und die sind wahnsinnig gut darin, Inhalte zu erstellen, die real aussehen – aber nicht real sind.] Es lassen sich Bilder von Szenen erzeugen, die es nie gegeben hat, man kann Menschen in Videos täuschend echt etwas sagen lassen, das sie nie gesagt haben.

Damit lässt sich eine große Unsicherheit erzeugen. Und wenn wir uns vorstellen, dass eines Tages im demokratischen Diskurs vor allem Lügen verbreitet werden oder Inhalte, von denen man annehmen muss, dass es Lügen sein könnten, dann ist das eine Gefahr für die Demokratie.

Wie lässt sich dem entgegenwirken?

Das Verbreiten von Falschinformation, um den politischen Diskurs zu beeinflussen, hat ja nicht erst gestern angefangen, das gibt es seit Jahrhunderten. Was sich nun verändert, sind Qualität, Quantität und Verbreitungswege von Falschinformation. Allein die ständige Ungewissheit, ob ein Bild, ein Video oder ein Text echt ist, kann für Misstrauen sorgen.

Besonders Menschen, die in einem Bereich noch keine gefestigte Meinung haben und denen es vielleicht an Wissen fehlt, werden sich dann sehr leicht verunsichern und beeinflussen lassen. Wir müssen also an beiden Seiten ansetzen: Zum einen müssen wir herausfinden, warum heute so viel Unzufriedenheit in der Gesellschaft ist, die Falschinformation auf fruchtbaren Boden fallen lässt, und wie wir das ändern können.

Zum anderen müssen wir uns um die Technik kümmern, sie sicherer machen. Dazu gehören Bias-Tests und Transparenz, aber zum Beispiel auch verpflichtende Wasserzeichen für KI-generierte Inhalte.

Aber daran werden sich nicht alle halten.

Natürlich nicht. Es halten sich auch nicht alle an rote Ampeln. Ist das ein Grund, sie abzuschaffen? Nein. Natürlich wird es auch Katz-und-Maus-Spiele geben, von Anwendungen, die KI-generierte Inhalte erkennen sollen, und anderen, die sie erstellen.

Bias-Tests, Offenlegen von Trainingsdaten, Wasserzeichen – aus der Wirtschaft gibt es zu solchen Vorschlägen häufig Kritik, weil sie Kosten und Zeitaufwand verursachen.

Eine gute KI zu entwickeln ist tatsächlich viel Arbeit. Aber das sollten wir nicht als Kosten sehen, sondern als gute Investition. Nicht nur, weil eine schlecht durchdachte und unzureichend getestete KI viel Schaden anrichten kann. Sondern auch, weil uns der Entwicklungsprozess im besten Fall die Gelegenheit gibt, Strukturen zu überdenken.

Warum zum Beispiel bekommen Mädchen schlechtere Mathenoten als Jungen? Nicht, weil sie schlechter wären, sondern weil sie von vielen Lehrenden schlechter bewertet werden.

Wenn ich also weiß, dass die Note „gut“ für ein Mädchen einem „sehr gut“ für einen Jungen entspricht, dann kann ich das bei der Auswahl von Mitarbeiter:innen in den Algorithmus einbauen und kriege am Ende gute Leute, die mir sonst entgangen wären. Mit solchen Ansätzen verändern wir die Wirklichkeit. Und diese Chance, die müssen wir nutzen.

10 Jun 2023

LINKS

[1] /Kuenstliche-Intelligenz-in-der-Medizin/!5928490
[2] /Vorwuerfe-von-schwarzer-KI-Forscherin/!5730475
[3] /Ideologie-und-kuenstliche-Intelligenz/!5907912
[4] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661
[5] /Kuenstliche-Intelligenz/!5905841

AUTOREN

Svenja Bergt

TAGS

Schwerpunkt Rassismus
Sexismus
Chancengleichheit
GNS
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Digitalisierung
Schwerpunkt Künstliche Intelligenz
Algorithmen
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Rassismus
Schwerpunkt Überwachung
EU-Parlament
EU-Parlament
Technik
Medien
Zukunft

ARTIKEL ZUM THEMA

EU-Gesetzgebung zu KI: Kritik nach Marathonsitzung

Am Freitag sollte die EU-Einigung zu Künstlicher Intelligenz stehen. Doch das Prozedere und die letzten Streitpunkte sorgen für Proteste.

Wie KI Sexismus produziert: Die Frau ist immer unter 35

Bildgeneratoren zeigen nicht die Wirklichkeit, sondern manifestieren ein misogynes Weltbild. Das dürfen wir uns nicht gefallen lassen.

Energiebilanz Künstlicher Intelligenz: KI mit Ökofaktor gesucht

Künstliche Intelligenz ist oft wenig nachhaltig – eine Initiative will das ändern. Doch den geplanten EU-Regeln für KI droht die Aufweichung.

Staaten wollen Kooperation bei KI: Erstes Treffen in Großbritannien

Beim ersten globalen KI-Gipfel in Großbritannien bleibt vieles im Vagen. Doch eines haben die Staatsvertreter gemeinsam: Sie betonen die Chancen.

Debatte um Technologieregulierung: Klimaschutz als Vorbild für KI

Ein Weltrat für Künstliche Intelligenz, analog zum IPCC fürs Klima – das schlägt die EU-Kommissionspräsidentin vor. Die Reaktionen sind gemischt.

Diskriminierung durch KI: Der Algorithmus sagt Nein

Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter anderem durch KI – und zeigt auf, was sich besser machen ließe.

Lieblingsfarben von Fliegen: Ein Algorithmus gegen Fliegen

Die Farbe Blau wirkt auf Fliegen anziehend – weshalb das so ist, macht nun ein Algorithmus deutlich. Er soll auch bei der Schädlingsbekämpfung helfen.

Europarat verhandelt Abkommen: KI für die Milliarden

Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden. Die Konvention des Europarats würde Menschen auf mindestens drei Kontinenten betreffen. Doch es gibt auch Kritik.

Nicole Anyomi über Rassismus im Fußball: „Das war erschreckend“

Die Nationalspielerin Nicole Anyomi äußert sich zum Rassismusvorfall bei der U21-EM. Auch sie hat schon ähnliche Erfahrungen gemacht.

Debatte im EU-Parlament: Streit um Überwachung mit KI

Kurz vor der Abstimmung über die Regeln für Künstliche Intelligenz gibt es Streit im EU-Parlament. Es geht um die Frage der Massenüberwachung.

Geplante EU-Regulierung von KI: Apokalyptische Ablenkung

Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der Branche selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu handeln.

EU-Parlament zur künstlichen Intelligenz: Der KI Grenzen setzen

Am Mittwoch möchte das EU-Parlament über die weltweit bislang umfassendste Regulierung von KI abstimmen. Expert:innen fordern schon Nachbesserungen.

Folgen von Künstlicher Intelligenz: Ohnmacht durch KI

Künstliche Intelligenz dürfte die Menschheit schneller verändern als die Entdeckung des Feuers. Es geht um Grundfragen: Wer wollen wir sein?

Auswirkungen Künstlicher Intelligenz: Die Ängste, die wir riefen

Hunderte Expert*innen sehen in Künstlicher Intelligenz das „Risiko der Auslöschung“ für die Menschheit. Warum dieses Statement gefährlich ist.

Künstliche Intelligenz: Wer hat Angst vor ChatGPT?

Die Entwicklung von KI schreitet voran und menschliche Arbeit könnten bald von Maschinen übernommen werden. Warum das kein Albtraum sein muss.