taz.de -- Künstliche Intelligenz: KI außer Kontrolle

Enquetekommission streitet über die Regulierung selbstlernender Maschinen: Braucht man eine Behörde oder nur mehr Transparenz?
Bild: Immer mehr E-Busse sollen mit künstlicher Intelligenz gesteuert werden

Künstliche Intelligenz ist ein Versprechen – und eine Bedrohung. Soziale Netzwerke ermöglichen es, schnell mit vielen Leuten in Kontakt zu treten. Aber wer bestimmt, welche Nachrichten die Adressat:innen zuerst sehen? Diese Auswahl treffen meist Algorithmen – Rechenformeln – in Computerprogrammen.

Einerseits gewinnen die Nutzer:innen Autonomie, andererseits sind sie aber auch ferngesteuert. Die zunehmend mächtigen Maschinen lenken die Wahrnehmung der Individuen, der Öffentlichkeit, der Gesellschaft. Ist es also nötig, die Betreiber der Netzwerke und ihre Programme demokratisch zu kontrollieren?

Mit diesen und verwandten Fragen beschäftigte sich während der vergangenen zwei Jahre die [1][Enquetekommission „Künstliche Intelligenz“] des Bundestages. Am Montag tagt sie zum letzten Mal, am Mittwoch übergibt sie ihren Bericht an Bundestagspräsident Wolfgang Schäuble. Das bislang nicht veröffentlichte Gesamtdokument, das der taz vorliegt, und die ergänzenden Stellungnahmen aller Fraktionen offenbaren teilweise große Einschätzungsunterschiede.

Grundsätzlich muss man sich darauf einstellen, dass die Denkleistung von Rechnern und Maschinen zunimmt, sie mehr und mehr menschliche Tätigkeiten bewältigen und dabei auch selbst neue Problemlösungen entwickeln. Produktionsanlagen in Fabriken können sich wohl bald eigenständig reparieren, indem sie rechtzeitig Verschleißteile ordern und selbst einbauen.

Die Mehrheit der Kommission ist gegen starke Regulierung

Fahrerlose Vehikel wählen die Routen aus, auf denen sie die Passagiere zum Ziel bringen, und intelligente Medizinsysteme nehmen den Ärzt:innen einen Teil der Behandlungen ab. Schon heute beeinflussen Plattformen im Internet das Informations- und Einkaufsverhalten der Nutzer:innen erheblich, indem sie ihnen individualisierte Konsumvorschläge machen.

Verantwortlich dafür sind sogenannte ADM-Systeme, die eigenständig Entscheidungen treffen („algorithmic decision making“). Darüber, wie mit diesen umgegangen werden soll, konnten die Mitglieder der Kommission keine Einigkeit erzielen.

„Diese Systeme werden von Einzelpersonen in privaten Unternehmen mit Blick auf Gewinnmaximierung entwickelt und unterstehen kaum einer institutionalisierten, unabhängigen Kontrolle im öffentlichen Interesse“, schreiben die Grünen in ihrem Sondervotum. „Eine solche Kontrolle ist [2][aber dringend zu empfehlen]“, sagt Tabea Rößner als grünes Kommissionsmitglied. Sie spricht sich für „verpflichtende Register und Audits von ADM-Systemen“ aus.

Im Bericht der KI-Kommission spielt das Thema der Regulierung allerdings keine große Rolle. Grund: Die Kommissionsmehrheit, unter anderem die Union, trat auf die Bremse. „Einem pauschalen Algorithmen-TÜV stehen wir skeptisch gegenüber“, betont Ronja Kemmer (CDU). Social-Media-Plattformen sollen zwar unter bestimmten Bedingungen „Schnittstellen öffnen“ und Einblick gewähren, „eine neue Behörde braucht es dafür aber nicht“, so Kemmer.

Dagegen unterstützt der Bundesverband der Verbraucherzentralen die Position der Grünen: „Ein ausgewogener Regulierungsrahmen ist nötig, um die Akzeptanz von künstlicher Intelligenz zu stärken.“

Ein deutsches Silicon Valley?

Noch in diesem Jahr will EU-Kommissarin Margrethe Vestager eine Richtlinie vorlegen, die das Problem aufgreift. So könnte mit der Zeit eine öffentliche Instanz zur Kontrolle der Algorithmen entstehen – ähnlich einer Atomaufsicht oder einem Kartellamt. Ob das eine europäische Digitalagentur oder ein Netzwerk nationaler Behörden sein wird, ist offen.

Ebenso wenig einigen konnten sich die Parteien bei der Einstufung von Systemen der künstlichen Intelligenz. „Die Definition von Risikoklassen dient dazu, unterschiedliche Techniken im Hinblick auf potenzielle Gefahren zu klassifizieren, die eventuell von ihnen ausgehen“, erklärt Soziologe Florian Butollo, Sachverständiger der Linken in der Kommission.

Das wäre eine Basis, „Entwicklungen mit riskanten Auswirkungen auf die Gesellschaft zu verhindern oder zu regulieren“. Als Beispiel nennt Butollo Algorithmen, die Emotionen in Gesichtern erkennen. „Eine Einteilung in Risikoklassen halten wir generell für sinnvoll“, sagt auch Grünen-Kommissionsmitglied Anna Christmann. Während die Opposition die Risikobewertung teilweise verpflichtend machen will, reicht der Kommissionsmehrheit eine Sollregelung.

„Die Mehrheit wünscht sich quasi ein zweites Silicon Valley, damit Deutschland global konkurrenzfähige KI-Systeme entwickelt und auf den Markt bringt“, so Linke-Experte Butollo. „Uns geht es dagegen darum, künstliche Intelligenz so einzusetzen, dass sie dem Gemeinwohl und der sozialökologischen Transformation dient.“

25 Oct 2020

LINKS

[1] https://www.bundestag.de/ausschuesse/weitere_gremien/enquete_ki
[2] /Unfaelle-mit-kuenstlicher-Intelligenz/!5711704

AUTOREN

Hannes Koch

TAGS

Digitalisierung
Social Media
Schwerpunkt Künstliche Intelligenz
Vernetzung
Ethik
Algorithmen
Schwerpunkt Rassismus
Bildende Kunst
Schwerpunkt Rassismus

ARTIKEL ZUM THEMA

Künstliche Intelligenz im Alltag: Längst unter uns

Anwendungen künstlicher Intelligenz sind keine Science-Fiction, sondern längst Alltag. Vier Beispiele aus ganz unterschiedlichen Bereichen.

Leben mit künstlicher Intelligenz: Datenfreigabe nur freiwillig

Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren Bericht vor. Konkreter wird ein anderer Report.

Unfälle mit künstlicher Intelligenz: Ein rechtlicher Flickenteppich

Künstliche Intelligenz ist nicht perfekt. Der tödliche Unfall durch ein Roboterauto oder rassistische Diskriminierung erfordern strengere Regulierung.

Kunst in Zeiten von Social Distancing: Wenn Roboter von der Liebe singen

Wie verhandeln neue Medien Gefühl und Sinnlichkeit? Wie rassistisch ist die KI? Zwei Ausstellungen in Amsterdam und Basel geben Auskunft.

Dekolonialisierung von Algorithmen: Programmierter Rassismus

In KI-Systemen schlummern immer noch rassistische Vorurteile. Der Grund: Auch künstliche Intelligenz wird von Menschen gemacht.