taz.de -- Berechnung des Alltags: Wir sind Algorithmen-Zombies

Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass wir es merken, und machen uns so manipulierbar.
Bild: Wir sind alle ferngesteuert – auf die eine oder andere Weise

Berlin taz | „Wir sind zunehmend ferngesteuert“, schreibt Dirk Helbing. Viele Entscheidungen, die Menschen treffen und die sie für ihre eigenen halten, „sind längst von Algorithmen vorherbestimmt“. Klingt weit hergeholt? Ist es aber nicht.

Dirk Helbing veröffentlichte seine Position nicht etwa im Yps-Heft, sondern in der aktuellen Ausgabe von Science, einer der angesehensten Wissenschaftszeitschriften der Welt. Auch ist Helbing kein Verschwörungstheoretiker, sondern Leiter des Bereichs Computational Social Science (so eine Art Informatik der Gesellschaft) der ETH Zürich – einer der besten Universitäten Europas.

„Personalisierte Informationen, Empfehlungssysteme und die dahinter stehenden Algorithmen ermöglichen eine Fernsteuerung unserer Handlungen durch reflexhafte Reaktionen. Das hebelt bewusstes Entscheiden weitgehend aus“, sagt er.

In seinem Beitrag für die Nature bezieht er sich etwa auf China. Das Regime führt dort ein Ratingsystem ein, das anhand des Surfverhaltens den Zugang der BürgerInnen zu bestimmten Berufen regelt. Mit einer Punktzahl, die den Personalausweis ergänzt. Wer die falschen Seiten aufruft oder auch nur digitalen Kontakt zu den „falschen“ Menschen pflegt, wird für berufliche Positionen gesperrt oder von Reisezielen ausgeschlossen.

Suchmaschinen steuern Wähler

Algorithmen sind also längst das probate Mittel einer kybernetischen Menschensteuerung. Ist alles nur in merkwürdigen Staatsformen möglich? Von wegen. NSA, globale Überwachung, Big Data.

Anhand von Massendaten lässt sich Verblüffendes prognostizieren: menschliches Verhalten etwa. Versicherungen können sehr genau mögliche Krankheiten vorhersagen. Das LKA München setzte Algorithmen ein, um Verbrechen zu identifizieren, bevor sie geschehen. Der Algorithmus von Facebook sortiert, was deren NutzerInnen sehen und was nicht.

Im Sommer 2014 veröffentlichte der Konzern die Ergebnisse eines Menschenexperiments. Facebook war es gelungen, den Gemütszustand von 689.000 Usern positiv wie auch negativ durch eine Variation des Algorithmus fernzusteuern. Unbemerkt, denn die User wurden erst im Nachhinein unterrichtet. Die weltweite Kritik war vernichtend.

Und dann gibt es ja noch diesen Konzern, der sich neuerdings – „im Anfang war das Wort“ – Alphabet nennt: Google. Der Verhaltenspsychologe Robert Epstein beschrieb kürzlich, wie durch unbemerkte Variation der Google-Algorithmen Wahlen bereits heute entschieden werden. Er nennt das den „Suchmaschinen-Manipulations-Effekt“ (SEME). Denn über 90 Prozent der User berücksichtigen bei Google-Suchen nur die erste Seite der Trefferlisten. Davon schauen rund 50 Prozent nur die ersten zwei Suchtreffer an.

Marktführer von Suchmaschinen können den Ausgang der US-Präsidentenwahl entscheiden, so Epstein. Zwanzig Prozent der unentschlossenen Wähler ließen sich gezielt in die eine oder die andere Richtung fernsteuern. Und unentschlossene Wähler entscheiden oft, wer gewinnt. Bei 50 Prozent aller US-Präsidentschaftswahlen lagen die Unterschiede zwischen den Kandidaten bei weniger als 7,6 Prozent der Stimmen.

Lernende Maschinen

„Manipulierte Suchergebnisse sind eine Bedrohung für die Demokratie“, sagt Epstein. Deutschland müsse seine Führungsrolle in Europa nutzen und sich dafür einsetzen, dass Suchergebnisse bei Wahlen streng reguliert werden und nicht dafür benutzt werden können, Wahlen zu entscheiden. Die USA diskutieren bereits über die Regulierung von Algorithmen.

Helbing übertreibt also nicht, wenn er von einer Fernsteuerung spricht. Das Problem ist allerdings komplizierter: Denn Algorithmen werden immer komplexer. Sie reprogrammieren sich bereits selbst. Machine Learning nennt sich das – oder künstliche Intelligenz.

Programmieren dient der Automatisierung von Prozessen. Die Automatisierung der Programmierung bedeutet also eine Automatisierung der Automatisierung. Klingt nach Niklas Luhmann und ließe sich auch als Definition von Kontrollverlust verwenden.

3 Nov 2015

AUTOREN

Kai Schlieter

TAGS

Schwerpunkt Überwachung
Smartphone
Algorithmen
Schwerpunkt Künstliche Intelligenz
Suchmaschine
Algorithmus
Schwerpunkt Rassismus
Google
Pentagon
Online-Shopping
Schwerpunkt Künstliche Intelligenz
Justiz
Polizei
Akzelerationismus

ARTIKEL ZUM THEMA

Algorithmen und Kriminalität: Er wird, er wird nicht, er wird …

Ein Soziologe sagt, sein Computerprogramm könne vor der Geburt eines Menschen herausfinden, ob der straffällig wird. Aber will man das?

Mensch und Maschine: Haben Sie Angst vor Algorithmen?

Vieles in unserem Alltag wird von Algorithmen geregelt. Wir vertrauen auf ihre Neutralität. Dabei entscheiden sie nicht immer fair.

Wertvollstes Börsen-Unternehmen: Alphabet schlägt Apple

Google-Mutter Alphabet hat Apple den Rang als teuerstes Unternehmen der Börsenwelt abgelaufen – obwohl der Konzern in einigen Sparten hohe Verluste macht.

Nachruf auf Marvin Minsky: Der Uropa künstlicher Intelligenz

Vom menschlichen Verstand hielt er nicht viel. Marvin Minsky brachte Maschinen das Lernen bei – und wurde zum Wegbereiter künstlicher Intelligenz.

Big Data für personalisierten Einkauf: Jeder hat seinen Preis

Onlinehändler bieten verschiedenen Kunden dieselbe Pauschalreise zu unterschiedlichen Preisen an. Und das ist erst der Anfang.

Künstliche Intelligenz: Professor Helbing und seine Mission

Dirk Helbing will mit künstlicher Intelligenz die Welt handhabbar machen. Der Physiker knüpft dazu seit Jahren weltweit ein Netzwerk.

Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“

Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten.

Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit

In den USA berechnen Computerprogramme, wie gefährlich Menschen sind. Damit könne man Leben retten, sagt ein Statistiker.

Philosoph über neue Technologien: „Die Linke hat den Anschluss verpasst“

Armen Avanessian ist Beschleunigungsphilosoph – deshalb redet er schnell. Etwa darüber, warum ihm die Linke zu gestrig ist und warum er Hirnchips toll findet.