taz.de -- Lernende Maschinen: Entscheiden muss der Mensch

Noch kratzen Forscher:innen bei der Künstlichen Intelligenz an der Oberfläche. Vieles ist bisher nur Wunsch und Utopie.
Bild: Erste Anwendungen aus der Welt des Maschinellen Lernens sind bereits im Alltag zu finden

[1][Elon Musk] ist nicht nur ein geschäftstüchtiger Pionier in der Autoindustrie. Er hat auch Visionen im Bereich der Künstlichen Intelligenz (KI). 2016 gründete er das Neurotechnologie-Unternehmen Neuralink mit dem Ziel, die Vernetzung von menschlichem Gehirn und Computer entscheidend voranzutreiben. Das Unternehmen wirbt mit Neuroprothesen, die es ermöglichen sollen, mittels im Gehirn implantierter Elektroden etwa Symptome der Parkinson- oder Alzheimer-Krankheit zu lindern. Am Ende jedoch steht Musks Idee einer posthumanistischen Verschmelzung von Mensch und Maschine.

Nicht alles, was sich selbst ernannte Utopisten ausdenken, ist derzeit auch schon machbar. Deepart, eine Plattform für kreative Bildintelligenz, oder die selbst trainierende Spieleplattform AlphaZero, mit der man beim Go-Spiel inzwischen als Verlierer hervorgehen kann, weisen zwar in eine spielerisch-leichtsinnige Zukunft, aber noch, sagt der Tübinger Spezialist für Adaptive Intelligenz, Matthias Bethge, funktioniere das maschinelle Lernen weitgehend nach dem Prinzip Input-Output. Bisher seien Maschinen nicht in der Lage, eigenständig Modelle zu bilden, also eben das, was wissensbasierte Intelligenz ausmacht.

Doch schon der Begriff Intelligenz wirft eine Menge Fragen auf, wie Ende Februar eine Anhörung des Deutschen Ethikrats zum Thema „Künstliche Intelligenz und Mensch-Maschinen-Schnittstelle“ erkundete. Bethge umschreibt sie als Fähigkeit, erfahrungsgesättigt mit Situationen umzugehen, die sich von anderen unterscheiden und daraus Generalisierungen abzuleiten.

So gesehen ist eine intelligente Maschine zwar in der Lage, Muster zu erkennen und neu zu komponieren, jedoch ohne tieferes Verständnis dessen, was sie hervorbringt. Kreativität und Empathie, aber auch „divergentes“, querständiges Denken als exklusiver „Überschuss“ menschlicher Intelligenz sind die immer wieder umkreisten abgrenzenden Begriffe.

Die in Tübingen lehrende Informatikerin Ulrike von Luxburg spricht deshalb vorläufig auch lieber nur von Maschinellem Lernen als von KI und bricht das Vorhaben auf eine Bastelwerkstatt herunter: große Datenmengen plus Optimierung und Statistik, „nichts Mysteriöses, jeder kann es, der mal Informatik studiert hat“.

Abgreifen der Gehirnaktivitäten

Erholsames Understatement war überhaupt ein Grundzug dieser ausgesprochen selbstreflexiven und kritischen Expert:innenrunde. Die Bremer Informatikerin Tanja Schultz etwa, die auf dem Feld akustischer Signale arbeitet, führte sehr anschaulich in die aktuellen Entwicklungen kognitiver Systeme ein. Mittlerweile demonstrieren uns die [2][Amazon-Spracherkennungs-App Alexa] oder das Apple-Pendant Siri im täglichen Alltag, wie mühelos Maschinen durch integrierte, teilweise schon unter die Haut implantierbare Kleinstmikrofone Sprache erkennen und verarbeiten. Überraschend und auch verstörend ist jedoch die sich abzeichnende Möglichkeit, durch die [3][Abbildung von Gehirnaktivitäten] „lautlose“, also im Gehirn gebildete Sprache zu „übersetzen“. „Wir können dem Gehirn beim Sprechen zuschauen“, so Tanja Schultz. Wie lange sind dann die Gedanken noch frei?

In faszinierenden Gehirnwindungen ist auch der Magdeburger Neurowissenschaftler Stefan Remy unterwegs. Der Flaschenhals der Hirnforschung seien heutzutage nicht mehr die Daten, sondern das Aufspüren und die Identifizierung von verborgenen Datenstrukturen im Gehirn, die uns das Denken ermöglichen und unser Gedächtnis ordnen. „Wir kratzen dabei noch ganz an der Oberfläche“, erklärt er demütig und setzt sich explizit von den Human Enhancement-Projekten eines Elon Musk ab.

Remy sieht die Gefahr, dass die möglichen medizinischen Einsatzmöglichkeiten des Computer Brain Interface technologische Entwicklungen rechtfertigen, die nur einer Nutzerschicht zugute kämen. Jede Intervention in die Plastizität des Gehirns berge jedoch die Gefahr nicht auslotbarer Veränderungen.

Das medizinische Potenzial dieser Forschung ist andererseits elektrisierend, wie die diesbezüglichen Nachfragen des Altersforschers und Ethikrats Andreas Kruse zeigten. Könnte man mittels derartiger Interventionen nicht Ordnung in die Gedächtniswelt von Alzheimer-Patienten bringen oder durch Tiefenstimulation bewegungsgestörten Menschen helfen? Die Anwendungsgebiete sind vielfältig und könnten das Leben von Betroffenen, Angehörigen und Pfleger:innen erleichtern, etwa, wenn dadurch eine bessere Kommunikation möglich werden kann. Doch was, wenn intelligente Maschinen Entscheidungen übernehmen, etwa ob ein Straffälliger aus der Haft entlassen oder ein Kredit vergeben wird? Können sie moralisch entscheiden?

Die Philosophin Janina Loh hat in ihrem Buch „Roboterethik“ nachdrücklich auf die Herausforderungen beim Bau von Robotern aufmerksam gemacht und die Vorgängigkeit der menschlichen Bewertungen und auf Vorurteile, die in die Systeme eingehen, hingewiesen.

Die Bias, also die kognitiven Verzerrungen von KI-Systemen, bringt auch Luxburg in Anschlag. „KI ist nicht neutral, und es gibt keine technischen Lösungen, die die Biases korrigieren könnten.“ Neben der Fairness, etwa bei den oben genannten Vorentscheidungen, stellt sich für Luxburg auch das Problem der Erklärbarkeit, denn beim Maschinellen Lernen handle es sich um eine Black Box.

Wer ist verantwortlich?

Loh erklärt das am Beispiel des [4][autonomen Fahrens]: Warum sollte ein System sich nicht dafür entscheiden können, gegen eine Wand zu fahren? Im menschlichen Kontext nennt man das Probehandeln, mit der immer inhärenten Möglichkeit, Fehler zu machen. Aber wie ist das bei einer lernfähigen Maschine? Ist sie verantwortlich für das, was sie tut?

Keinen Zweifel lassen die Befragten aber daran, dass nicht die Künstliche Intelligenz, sondern der Mensch der Schlüssel für die künftige Entwicklungen ist. „Wie wollen wir den Weg weiter gestalten, wenn Facebook und Google die Entwicklung weiter in der Hand hat?“, gibt Schultz zu bedenken und konstatiert: „Wir haben schon viel Boden verloren.“

Luxburg findet es dabei weniger wichtig, „wie die Ethik in die KI kommt“, sondern dass wir für ausreichend Transparenz und angemessene Regulierungen sorgen. Wenn sie an autonome Waffen, Überwachung oder Polizeiarbeit denke, so ihr Auftakt, drehe sich ihr persönlich der Magen um.

Und Bethge wiederholt mehrmals seine Hoffnung, dass sich nicht der Mensch an die Maschine anzupassen habe, sondern diese umgekehrt an Natur, Umwelt und Mensch. Die Welt, die wir erfinden wollen, müsse auch in Afrika Bestand haben. Der Kontinent sei mittels KI-Technologien in einen Zustand zu versetzen, der die Menschen ermutige, dort zu bleiben.

Im Silicon Valley, wo Elon Musk und die vielen anderen Brain-Visionäre unterwegs sind, geht es allerdings um ein ganz anderes Projekt, die Optimierung und perspektivisch unendliche Ausweitung der Lebenszeit der Privilegierten, und um die Kontrolle all der anderen, die mittels Künstlicher Intelligenz besser arbeiten und mehr konsumieren sollen.

20 Mar 2021

LINKS

[1] /Tesla-in-Brandenburg/!5747448
[2] /Musik-fuer-computergesteuerte-Maschinen/!5735754
[3] /Hirnforscher-ueber-das-Gedankenlesen/!5529523
[4] /Verbraucherschuetzerin-ueber-vernetzte-Pkw/!5755748

AUTOREN

Ulrike Baureithel

TAGS

Roboter
Algorithmen
Schwerpunkt Künstliche Intelligenz
Software
Schwerpunkt Künstliche Intelligenz
Neurologie
IG
Zeitgenössischer Tanz
Schwerpunkt Rassismus
Digital
Elon Musk
Dystopie
Afrika
Schwerpunkt Coronavirus

ARTIKEL ZUM THEMA

Neuropsychologin über Gehirne und Computer: Signale aus der Schaltzentrale

Schnittstellen zwischen Computern und Gehirnen sind möglich, aber kompliziert. Stefanie Enriquez-Geppert erklärt, wie das geht und wann es hilfreich ist.

Gehirn-Computer-Schnittstellen: Der dritte Daumen

Alle Hände voll zu tun? Brain-Computer-Interfaces ermöglichen es, zusätzliche Körperteile zu schaffen. Dabei stellen sich auch ethische Fragen.

Cyberphilosophie mit Haustier: Wann ist ein Hund ein Hund?

Ein Roboter als Haustier? In der Welt der künstlichen Intelligenz stellen sich die großen Fragen nach Wesen, Willen und Bewusstsein noch mal neu.

Künstliche Intelligenz in der Kunst: Tanzen nach Zahlen

Wenn Künstliche Intelligenz die Schritte lenkt: Die Choreografie für das Stück „Deep Dance“ stammt von einem neuronalen Netzwerk.

Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen

Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von männlicher Norm. Sie reproduzieren real existierende Zuschreibungen.

EU-Pläne für Künstliche Intelligenz: KI soll nicht ausspähen

Menschliches Verhalten soll unangetastet bleiben, Massenüberwachung ausgeschlossen sein: Die Kommission hat ihren Gesetzesvorschlag zur KI vorgelegt.

Elon Musk vs. Bernie Sanders: Krieg der Sterne

US-Senator Bernie Sanders kritisiert Elon Musk auf Twitter scharf. Während Musk vom Weltraum träumt, will Sanders die Probleme auf der Erde angehen.

Roman über Künstliche Intelligenz: Fehler im System

Der Supercomputer ist das Menschlichste, was wir haben. Raphaela Edelbauer donnert in ihrer KI-Dystopie „Dave“ los wie bei „2001“ von Stanley Kubrick.

KI-Konzeptalbum von Mouse On Mars: Humanismus kickt die Klangelemente

Das Weltall sind wir: Das Berliner-Elektronikduo Mouse On Mars macht mit seinem neuen Album „AAI“ Künstliche Intelligenz zur Anarcho-Utopie.

Künstliche Intelligenz als Warnsytem: Den Coronatod verhindern

Ein selbstlernendes System soll frühzeitig Alarm geben, wenn droht, dass ein Patient stirbt. Der Arzt kann dann schnell handeln.