taz.de -- Rassismus in Algorithmen: Gesichtserkennung für die Tonne

In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen Dieb. Der aber sieht nicht annähernd wie der Täter aus.
Bild: Protest nach dem Tod von George Floyd: Detroiter Polizei im Einsatz

Algorithmen sind nicht vorurteilsfrei. So ist schon lange bekannt, dass automatisierte Gesichtserkennung, neben vielen anderen Problemen, [1][erhebliche Schwierigkeiten hat, nichtweiße Physiognomien zu identifizieren]. Das „Normal“, auf dem die Software trainiert wird, ist nämlich weiß. Dass das ein ganz handfestes individuelles Problem werden kann, [2][musste Anfang des Jahres Robert Williams aus dem US-Bundesstaat Michigan erfahren].

Ein Schwarzer Mann hatte in einem Juweliergeschäft in Detroit Uhren im Wert von 3.800 US-Dollar gestohlen und war dabei gefilmt worden. Das Material wurde in der Polizeidatenbank abgeglichen und fand als Treffer das Bild von Williams Fahrerlaubnis.

Schon in der ersten Befragung wurde klar, dass Williams nicht der gefilmte Übeltäter war. Nach Ansicht der NGO American Civil Liberties Union (ACLU) hätte es für diese Erkenntnis keiner Festnahme, sondern lediglich eines menschlichen Blicks auf die Bilder bedurft, und reichte [3][in Williams Namen Beschwerde gegen das Detroit Police Department] ein.

Dessen Chef musste nun einräumen, dass die false positives bei der Gesichtserkennung bei sagenhaften 96 Prozent liegen. Schon bei der oft behaupteten korrekten Trefferrate in etwa derselben Dimension ist die absolute Zahl der falschen Identifizierungen viel zu hoch, um einen praktischen Nutzen aus der Gesichtserkennung ziehen zu können, aber das Detroiter Ergebnis sprengt jeden Rahmen.

Verbot der Technologie

Über die Gründe wird verschiedentlich spekuliert. Einer könnte die hohe Zahl an Schwarzen Verdächtigen sein. Im [4][aktuellen Wochenreport der Detroiter Polizei] werden von 70 per Gesichtserkennung gesuchter Personen 68 als „Black“ geführt. Es scheint, als träfen sich rassistische Vorurteile und eine diskriminierende Polizeipraxis ganz beiläufig mit dem bekannten racial bias der Algorithmen.

Welche Schlüsse die Stadt Detroit und ihr Police Department aus dem offensichtlichen und systematischen Versagen der Technologie ziehen, ist noch offen. Andere Städte in den USA haben sich bereits entschieden. Erst in der vergangenen Woche reihte sich Boston in die länger werdende Reihe von Kommunen ein, die nicht auf ein Bundesgesetz zur Regulierung der automatischen Gesichtserkennung warten wollen und sie für die polizeiliche Praxis verboten haben.

1 Jul 2020

LINKS

[1] /Amazon-beendet-Kooperation/!5688012
[2] https://arstechnica.com/tech-policy/2020/06/detroit-police-chief-admits-facial-recognition-is-wrong-96-of-the-time/
[3] https://cdn.arstechnica.net/wp-content/uploads/2020/06/dpd_complaint_v_final.pdf
[4] https://detroitmi.gov/sites/detroitmi.localhost/files/2020-06/DPD%20Report%20on%20Facial%20Recognition%20Usage%20%20061520%20-%20062120.pdf

AUTOREN

Daniél Kretschmar

TAGS

Schwerpunkt Rassismus
Polizei
Gesichtserkennung
Datenschutz
Schwerpunkt Rassismus
US-Polizei
Schwerpunkt Rassismus
Schwerpunkt Meta
Black Lives Matter
Innere Sicherheit

ARTIKEL ZUM THEMA

Kritik am Sicherheitspaket: Gefährliche Datenspeicherung

Teile des neuen Sicherheitspakets könnten eine weitreichende Überwachung der Bevölkerung erlauben. Einige Maßnahmen verstoßen gegen das Grundgesetz.

Facebooks Algorithmen werden geprüft: Diskriminierung im System

Der Internetkonzern Facebook will untersuchen, ob seine Algorithmen rassistisch diskriminieren. Dabei ist längst bekannt, dass sie das tun.

Soziologe über Polizei in den USA: „Polizisten sind Gewaltarbeiter“

Die Polizei muss aus dem Alltag der Menschen rausgehalten werden, sagt Alex Vitale. Der Soziologe fordert zudem eine reduzierte Bewaffnung.

Soziologin über Polizei und Rassismus: „Die Polizei ist Schutz und Gefahr“

Für viele Menschen bedeutet weniger Polizei mehr Sicherheit, sagt Vanessa E. Thompson. Sie erklärt, warum Rassismusforschung auch frustrierend ist.

Filter bei Facebook und Microsoft: Beim Livetest versagt

Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten – zeigen zwei im „Guardian“ dokumentierte Fälle.

Amazon beendet Kooperation: Polizei vorläufig ohne Amazon

Amazon erlaubt der US-Polizei nicht mehr, eine Software zur Gesichtserkennung zu verwenden. Lukrativ aber war der Geschäftszweig eh nicht.

Software zur Gesichtserkennung: Seehofer verzichtet drauf

Erst sorgen Berichte über das Gesichtserkennungssystem Clearview für Aufregung. Nun streicht Seehofer Pläne für den automatisierten Bild-Abgleich.