taz.de -- EU-Einigung auf KI-Gesetz: Mit Überwachung ins KI-Zeitalter
Der AI Act steht. Was das mit Schlafmangel, biometrischer Überwachung und der Zuckerlobby zu tun hat – und warum es am Ende doch aufs Geld ankommt.
Man kennt es von Koalitionsverhandlungen: Die Länge einer Verhandlungsrunde wächst proportional zur Zahl der Verhandlungstage. Und am Ende steht eine Marathonsitzung, bei der sich durchsetzt, wer am meisten Kaffee verträgt, die besten Snacks hat, keine Kinderbetreuung organisieren muss oder vorher auf Vorrat schlafen konnte.
Auch in den EU-Gremien, die Ende der Woche [1][den Trilog zur KI-Gesetzgebung, den „AI Act“] fertig ausgehandelt haben, muss die Kaffeetoleranz hoch gewesen sein: Rund 37 Stunden waren es Beteiligten zufolge. Anzahl der Schlafpausen zwischendrin: 1. Zwar sind noch nicht sämtliche Details ausgearbeitet – das passiert erst in den kommenden Wochen, wenn der Feinschliff gemacht wird. [2][Dennoch ist Zeit für eine erste Bilanz], was die Verhandlungen und Diskussion rundherum an Erkenntnissen gebracht haben.
Neue Technologie, neue Überwachungsbegehrlichkeiten: Da sprechen alle über den gesellschaftlichen Wandel und die wirtschaftlichen Potenziale – und am Ende geht es doch wieder um Überwachung. Etwas desillusionierend, dass das bei KI nicht anders ist als beim Internet, bei Computern oder Videokameras. Wohin die nun kompromissmäßig vereinbarten Schlupflöcher in Sachen KI-basierter biometrischer Überwachung führen werden, das werden wir erst in den kommenden Jahren und Jahrzehnten sehen.
Der Brexit hat auch Vorteile: Großbritannien ist einer der vehementen Verfechter des Einfach-mal-laufen-lassen in Bezug auf KI. „Wir glauben an Innovation“, sagte Premier Sunak kürzlich mit Bezug auf die verhältnismäßig junge Technologie. Und der Glaube an Innovation schließt anscheinend den Glauben daran aus, dass zum Beispiel Diskriminierung, Desinformation, überbordender Energieverbrauch und unklare Haftungsfragen Probleme sind, gegen die sich etwas tun lässt. Aber: Großbritannien ist ja nicht mehr dabei und so war es in den Verhandlungen ein Wirtschaftslobbyist weniger. Der darf dafür für Fotos mit Branchengrößen wie [3][OpenAI-Gründer Sam Altman] und IT-Milliardär Elon Musk posieren.
Selbstverpflichtungen bringen fast nie etwas
Großbritannien hat immerhin, im Gegensatz zu Deutschland, vor Jahren eine Abgabe [4][für extrem zuckerhaltige Getränke] eingeführt. Prompt passierte was? Der Zuckergehalt in den Getränken sank. Deutschland hat es nur zu einer Selbstverpflichtung gebracht. Und es passierte was? Nichts. Weil Selbstverpflichtungen fast nie etwas bringen. Dass Deutschland also gemeinsam mit Frankreich und Italien für die besonders leistungsfähigen KI-Basismodelle nur eine Selbstverpflichtung wollte, war ein echter Zuckerlobby-Move. Einer, der sich zum Glück nicht durchsetzen konnte.
Big Tech hat ein Gefühl für Timing: Einen Tag, bevor die Einigung ursprünglich kommen sollte, stellte Google ein neues KI-Basismodell vor: Gemini. Mit seinen Versionen Ultra, Pro und Nano klingt es zwar ein bisschen nach Menstruationsprodukt, aber auch da sollte man sich ja nicht von zweifelhaften Produktbezeichnungen irritieren lassen. Das Timing lässt sich jedenfalls, beabsichtigt oder nicht, als dezenter Wink lesen, um mitzuteilen: Reguliert ihr mal – wir machen unser Ding
Am Ende hängt es am Geld: Strenge Regulierung oder lockere – für die Gesellschaft, die Rechte und den Schutz von Nutzer:innen ist das entscheidend. Für die Wirtschaft aber weniger. Regulierung gibt zwar Planungssicherheit oder eben nicht, sie klärt Haftungsfragen oder eben nicht und schafft damit bessere oder schlechtere Rahmenbedingungen. Doch auf was es am Ende ankommt: Geld.
Konzerne wie Meta, Microsoft oder Alphabet können Milliarden in die konzerneigene Forschung und Entwicklung stecken. Der Professor für Recht und Ethik der digitalen Gesellschaft an der Universität Viadrina, Philipp Hacker, beziffert die Kosten für die Entwicklung eines hochklassigen KI-Basismodells auf rund 60 Millionen Euro. Die Kosten für die Umsetzung der Vorschriften bewegten sich dagegen im Bereich von 1 Prozent davon.
Wer europäische Alternativen schaffen will und denkt, mit weniger Regulierung werde das schon passieren, sollte sich diese Zahl mal aufschreiben und an die Bürowand pinnen. Vielleicht ja als Kunstwerk von einem der KI-Bildgeneratoren.
10 Dec 2023
LINKS
AUTOREN
TAGS
ARTIKEL ZUM THEMA
Die NGO AlgorithmWatch hat 24 Projekte untersucht, die zum Einsatz von KI im EU-Grenzschutz genutzt werden sollen. Die Ergebnisse seien „verstörend“.
Entwickler:innen wollen vor den Risiken künstlicher Intelligenz warnen dürfen. Viele fürchten die Reaktion der Konzerne auf interne Kritik.
Diese Woche werden zwei entscheidende Weichen in Sachen KI gestellt. Doch NGOs und Wissenschaftler:innen sehen problematische Parallelen.
Eine österreichische FH schafft wegen KI die Bachelorarbeit in bisheriger Form ab. Gut so, denn es gibt bessere Vorbereitungen auf das Berufsleben.
Die EU-Kommission will Tiktok untersuchen. Die Videoplattform steht im Verdacht, zu wenig für den Schutz von Minderjährigen zu unternehmen.
Die Entwicklung von KI bietet Personen mit körperlicher Einschränkung Vorteile. Aber die Inklusion den Maschinen zu überlassen, ist gefährlich.
Die Bundesregierung zögert beim Ja zum EU-Gesetz zur Künstlichen Intelligenz. Das könnte das weltweite Vorreiterprojekt zum Scheitern bringen.
Verbote, Pflichten und Geldbußen sind vorgesehen. Doch Verbraucher- und Bürgerrechtsorganisationen sind besorgt.
Am Freitagabend wurden letzte Hürden beseitigt: Die EU bekommt nun einen Rechtsrahmen für die Nutzung von KI. Ursula von der Leyen freut sich, der BDI mosert.
Am Freitag sollte die EU-Einigung zu Künstlicher Intelligenz stehen. Doch das Prozedere und die letzten Streitpunkte sorgen für Proteste.
Die Gewerkschaft der Polizei fordert Videoüberwachung mit Software zur Gesichtserkennung auf Weihnachtsmärkten. Chaos Computer Club hat Vorbehalte.