taz.de -- Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“

Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten.
Bild: „Die meisten Straftäter sind eigentlich ziemlich ungefährlich.“

Mister Krisberg, Algorithmen berechnen in den USA, wie gefährlich einzelne Häftlinge sind. Wenn man diese Entwicklung zurückverfolgt, landet man irgendwann auch bei Ihrer Forschung als Kriminologe aus den Achtzigern und Neunzigern. Dabei gelten Sie doch als Gegner solcher Algorithmen.

Barry Krisberg: Kennen Sie den Blues-Sänger Ray Charles?

Klar.

Mein Lieblingssong von Ray Charles heißt: „Look, what they‘ve done to my song, Ma” Mama, schau dir mal an, was die mit meinem Lied gemacht haben! Genauso geht es mir und so dürfte es auch Kollegen wie James F. Austin gehen. Was haben die nur mit unserem Song angestellt?

Ja, was?

Wir haben uns dieses kleine Programm ausgedacht, das ganz okay funktionierte. Seitdem hat es sich entwickelt – in unterschiedlichste Richtungen. Es wurde immer schlimmer.

Vielleicht beginnen Sie mal ganz am Anfang. Mit Austin schrieben sie das Buch „Die Neuerfindung des Jugendstrafrechts”.

Wir wollten Risikoschätzungen ins Justizsystem bringen, damit es fairer wird. Wir konnten damit nämlich zeigen, dass die meisten Straftäter eigentlich ziemlich ungefährlich waren. Wir wollten herausfinden: Bleibt jemand sauber, wenn man ihn auf Kaution rauslässt? Wer würde zur Anhörung erscheinen? Wer ein Verbrechen begehen? Uns war klar, dass die große Mehrheit straffrei bleiben würde. Deshalb haben wir uns überlegt: Wenn wir diese Einsicht möglichst groß machen, werden viele der Gefangenen freigelassen. Wir zogen also von Bewährungsbehörde zu Bewährungsbehörde, von Richter zu Richter, um zu zeigen, dass viele Häftlinge ungefährlich sind.

Wie haben Sie das berechnet?

Das war ganz simpel. Die einzigen Faktoren, die wir einbezogen haben, waren die Schwere des Verbrechens, die Anzahl früherer Verurteilungen und das Alter, in dem jemand den ersten Kontakt mit dem System hatte. Das waren die aussagekräftigsten. Zu den anderen zählten: Drogenabhängigkeit, familiärer Hintergrund. Unsere Philosophie war: Die Leute sollten allein nach der Schwere ihrer Tat verurteilt werden. Wir wollten nicht ihren Charakter und auch nicht ihre Herkunft beurteilen. Das war die Idee. Dann ging alles den Bach runter.

Erzählen Sie!

Ob jemand ein Drogenproblem hatte, war nicht besonders aussagekräftig. In der Hälfte der Akten fehlten diese Daten sogar. Die Behörden waren da nicht so hinterher. Wir wollten, dass die Leute im Gefängnis und die auf Bewährung bestimmte Dienste angeboten bekommen, nach möglichst objektiven Kriterien. Wir entwickelten also, und das war unser fataler Fehler, Instrumente, die die Bedürfnisse der Gefangenen ermitteln sollten.

Aha.

Wir wiesen dabei aber explizit darauf hin, dass diese Instrumente niemals für Gerichtsurteile oder Bewährungsentscheidungen verwendet werden sollten. Es ging lediglich darum, dass ein Bewährungshelfer alle wichtigen Faktoren einbezog, wenn er einen Fall ansah. Wir wollten, dass Fälle ganzheitlich betrachtet werden. Plötzlich gingen aber viele davon aus, dass unsere Instrumente, die die Bedürfnisse der Häftlinge ermitteln sollten, irgendwelche Vorhersagekraft hätten. Dafür gibt es nur überhaupt keinen Hinweis.

Aber haben Sie nicht selbst gesagt, dass sich manches mit klassischen Faktoren gut vorhersagen lässt?

Wenn Sie sich die ausgefeiltesten Langzeitstudien ansehen – und die gibt es nur für Jugendliche – dann erklärt die beste von ihnen 20 Prozent eines Ausgangs. 80 Prozent sind absolut zufällig. Bei 80 Prozent der Fälle hat keiner eine Ahnung, was da los war. Und das ist die beste Studie, über mehrere Jahre, eine riesige Stichprobe. Irgendwann fing jedenfalls jemand an, diese Instrumente für Vorhersagen über künftige Kriminalität zu missbrauchen. Einfach so. Von da an wurde es immer schlimmer.

Inwiefern?

Kriminologen betrachteten nicht mehr nur die Bedürfnisse. Sie kamen plötzlich mit irgendwelchen Persönlichkeitsfaktoren daher. In vielen dieser Instrumente, die ja mittlerweile oft von privaten Firmen vertrieben werden, liegt der Fokus jetzt sehr stark auf Persönlichkeitstypen. Das basiert auf Studien des RAND Institutes, einer amerikanischen Denkfabrik. Das RAND Institute setzte die Idee einer kriminellen Persönlichkeit in die Welt. Die Idee also, dass es verschiedene kriminelle Persönlichkeitstypen gibt und dass Verbrechen gewissermaßen aus Denkfehlern entstehen. Kriminelle haben demnach eine verkorkste Logik. Man muss also nur prüfen, wie schlimm die Denkfehler sind und dann entsprechend reagieren. Dann kamen andere Wissenschaftler auch noch mit kriminogenen Faktoren an. Ich habe keine Ahnung, was das sein soll. Verbrechen und Verbrecher sind so unterschiedlich, dass es lächerlich wäre, sich irgendwelche kriminogenen Faktoren auszudenken. Glauben die wirklich, ein Wall Street-Händler und ein drogenabhängiger Autodieb hätten denselben Denkfehler? Das ist Quatsch.

Grundsätzlich geht es aber erst einmal um die Einschätzung von Risiken.

Das ist Versicherungslogik, angewandt auf das Justizsystem. Es gibt aber keine wissenschaftliche Evidenz, die das irgendwie stützt. Kennen Sie die Idee der großen Lüge?

Die wäre?

Wenn Sie eine Sache nur oft genug wiederholen, werden die Leute es schon glauben. Wenn Sie also genug Marketing betreiben, brav zu all den wissenschaftlichen Konferenzen gehen und in Zeitschriften publizieren, nimmt das nach einer Weile ein Eigenleben an. Wenn Sie mich fragen: Die meisten dieser Instrumente sind absolut wertlos. Hätte ich was zu sagen, ich würde sie alle restlos streichen. Aus soziologischer, aus statistischer Perspektive lässt sich vor allem eins sagen: Am besten lässt sich künftiges Verhalten vorhersagen, wenn man das aktuelle Verhalten betrachtet. Hält sich jemand an die Regeln?

Im Gefängnis gelten allerdings andere Regeln als draußen. Wie aussagekräftig kann das Verhalten drin dann sein?

Es hat sich mittlerweile ja eine ganze Industrie entwickelt. Die Leute haben kapiert, dass sie aus diesen Instrumenten ein Produkt machen können, mit Copyright drauf. Manchmal ist das wirklich die reinste Abzocke. Wenn Sie eines dieser Produkte nutzen, Yasi etwa, für Jugendstraftäter, zahlen Sie für jeden einzelnen Fall. Wie bei Apple Music kauft man also kein Produkt, man erwirbt lediglich das Recht, es zu nutzen.

Ihren Kollegen zufolge sind die Ergebnisse statistisch betrachtet verlässlich.

Die Statistik an sich zweifle ich auch gar nicht an. Wenn Sie Regressionen rechnen, heißt das doch einfach nur: Je mehr Variable ich hinzufüge, Verhalten im Knast, Teilnahme an Programmen, Verhältnis zur Familie, desto näher komme ich der Vorhersage eines individuellen Falles. Der Kern des Problems ist doch aber: Die Variablen selbst sind völlig unzulänglich und inakkurat. Wenn Sie sich die Akten ansehen, grauenhaft! Keine psychischen Faktoren, man weiß nichts über die Süchte der Häftlinge, fast nichts über ihre Ausbildung. Es fehlen also die Daten, um dem Einzelfall gerecht zu werden.

Warum kaufen dann alle solche Programme?

Das wurde wirklich aggressiv vermarktet, bei Richtern und Bewährungsbehörden. Eine Spur Naivität ist vermutlich auch dabei. Alle wollen das neueste Produkt auf dem Markt kaufen. Es verschafft einem außerdem politische Deckung. Wenn ich Sie als Vorsitzender einer Bewährungsbehörde freilasse und Sie stellen etwas an, dann ist das mein Fehler. Aber wenn Sie einem Computer die Entscheidung überlassen, ist der Computer schuld. Es gibt also auch einen politischen Antrieb, das zu fördern. Man kann sich dahinter verstecken.

Viele kritisieren außerdem, dass diese Algorithmen die Diskriminierung Schwarzer fortsetzen, selbst wenn der Faktor Race gar nicht offiziell verwendet wird.

Lassen Sie mich mal was zu Race sagen: Jeder Wissenschaftler wird Ihnen versichern, dass das ein völlig unbedeutender Faktor ist. Race ist eine Funktion von sozialer Klasse, Ökonomie, von kulturellen Mustern, diverseste Dinge fließen da ein. Race in Berechnungen zu verwenden, wäre also ein wirklich grobes Konstrukt. Wir haben für eine Studie mal Akten untersucht, um herauszufinden, wie akkurat die ethnischen Zuweisungen waren. Können Sie alles wegschmeißen! Gerade wenn in einem Viertel Asiaten und Latinos nebeneinander leben. Da ordnete dann ein Polizist die Leute irgendeiner Rasse zu. Was er ja gar nicht kann. Völliger Irrsinn. Als wir dann die Zuordnungen mit den Selbstbeschreibungen der Leute verglichen, gab es so gut wie keine Treffer. Kambodschaner erschienen als Latinos, Philippinos noch stärker, weil die manchmal spanische Nachnamen haben. Schwarze ploppten in allen Kategorien hoch. Eine absolut willkürliche Veranstaltung. Das ist aber nicht alles.

Nein?

Die Algorithmen bestrafen Leute besonders hart, die bei ihrer Tat sehr jung waren und ein schweres Verbrechen begangen haben. Das Alter bei der ersten Tat ist ein enorm mächtiger Faktor in den Gleichungen. Die Rückfallquote sinkt nämlich, je älter man wird. Ein 16-Jähriger kann so wie ein Erwachsener verurteilt werden. Dem hilft ein Algorithmus überhaupt nicht.

23 Oct 2015

AUTOREN

Johannes Gernert

TAGS

Justiz
Algorithmen
Polizei
Statistik
Gefängnis
Kriminalität
Algorithmus
Schwerpunkt Rassismus
Schwerpunkt Überwachung
Polizei
Schwerpunkt Polizeikontrollen in Hamburg
Schwerpunkt Meta
Polizei
Algorithmen

ARTIKEL ZUM THEMA

Algorithmen und Kriminalität: Er wird, er wird nicht, er wird …

Ein Soziologe sagt, sein Computerprogramm könne vor der Geburt eines Menschen herausfinden, ob der straffällig wird. Aber will man das?

Mensch und Maschine: Haben Sie Angst vor Algorithmen?

Vieles in unserem Alltag wird von Algorithmen geregelt. Wir vertrauen auf ihre Neutralität. Dabei entscheiden sie nicht immer fair.

Berechnung des Alltags: Wir sind Algorithmen-Zombies

Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass wir es merken, und machen uns so manipulierbar.

Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit

In den USA berechnen Computerprogramme, wie gefährlich Menschen sind. Damit könne man Leben retten, sagt ein Statistiker.

Beamte wollen Verbrechen vorhersagen: Wenn die Polizei zuerst da ist

Prognostizierende Polizeiarbeit: Computer sollen im Voraus ermitteln, wo es Straftaten geben könnte. Stadtteile könnten dabei stigmatisiert werden.

Algorithmen im Internet: „Die Maschinen entscheiden für uns“

Sie regulieren immer mehr Bereiche unseres Lebens – ohne dass wir verstehen, was genau Algorithmen tun. Nicht gut, sagt Techniksoziologin Zeynep Tufekci.

„Verbrechensvorhersage“ in Bayern: Algorithmen gegen Gangster

Seit Oktober testet die Polizei München eine Software, mit der sich angeblich Verbrechen vorhersagen lassen. Die erste Bilanz fällt positiv aus.

Rechnergestützte Prognosen: Wie Ihre Zukunft berechnet wird

Jede Menge Daten: Was der Supermarkt, das Smartphone, der Geheimdienst und die Polizei heute schon über morgen wissen – vier Beispiele.