taz.de -- Facebooks Algorithmen werden geprüft: Diskriminierung im System
Der Internetkonzern Facebook will untersuchen, ob seine Algorithmen rassistisch diskriminieren. Dabei ist längst bekannt, dass sie das tun.
Die Erkenntnis, dass Algorithmen diskriminieren, ist nicht neu oder überraschend. Schließlich sind lernende Maschinen [1][vollständig abhängig von menschlichem Input] und der ist ganz offensichtlich nicht vorurteilsfrei.
Eine Gesellschaft, geprägt von Ungleichheit und den darauf basierenden vielfältigen Formen der Benachteiligung, wird bei ungesteuerter Beobachtung und der Verarbeitung der so gewonnenen Daten in kalten Rechenoperationen immer die Algorithmen bekommen, die sie verdient. Die werden dann in Suchmaschinen, sozialen Medien, bei der Schufa oder [2][polizeilicher Gesichtserkennung] ohne permanente Korrekturen vorhandene Stereotype und Vorurteile perpetuieren und verstärken.
Dass Facebook nun laut einem [3][Bericht des Wall Street Journal] eine Taskforce einrichtet, die untersuchen soll, ob es überhaupt einen racial bias in den eigenen Algorithmen gibt, kann da nur verwundern. Interessant wäre doch lediglich die Frage, wie genau die selbstlernende Werbemaschine des Konzerns beispielsweise Rassismus trainiert und welche Gegenstrategien möglich sind. Vor allem, wie die dann nicht zu sehr mit dem [4][Geschäftszweck der Plattform] kollidieren. Der besteht schließlich darin, Menschen zu kategorisieren und zu hierarchisieren, um zielgenau Werbung platzieren zu können, die dann wiederum jede nur denkbare Stereotypisierung reproduziert.
Glaubt man bei Facebook tatsächlich die eigene Propagandalüge von der vorurteils- und diskriminierungsfreien Plattform, dann können rassistisch operierende Algorithmen natürlich nur ein zufälliger Fehler sein. Das wird eine schöne Überraschung, wenn diese Fehler auch nach erfolgter Untersuchung wieder und wieder auftreten. Und das werden sie ganz sicher.
23 Jul 2020
LINKS
AUTOREN
TAGS
ARTIKEL ZUM THEMA
Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von männlicher Norm. Sie reproduzieren real existierende Zuschreibungen.
Das US-Justizministerium verklagt Google. Der Suchmaschinenbetreiber steht im Verdacht, seine marktbeherrschende Stellung zu missbrauchen.
Facebook kündigt an, härter gegen Antisemitismus und Blackfacing vorzugehen. Das trifft auch eine umstrittene niederländische Traditionsfigur.
In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen Dieb. Der aber sieht nicht annähernd wie der Täter aus.
Auch auf den ersten Blick wertfreie Technologie kann diskriminieren. Ein Interview mit Ben Green, der glaubt, Städte sollten nicht zu smart werden.
Menschen und Algorithmen beeinflussen sich gegenseitig. Ausnahmesituationen wie die Coronapandemie bringen die Systeme an ihre Grenzen.