taz.de -- Chrome-Erweiterung „Tune“ gegen Hass: Google lässt Trolle verschwinden

Der Google-Browser Chrome kann jetzt automatisch Hasskommentare auf Plattformen ausblenden. Dahinter steckt künstliche Intelligenz.
Bild: Weniger Hass-Explosionen im Netz dank Künstlicher Intelligenz: Eine Chrome-Erweiterung soll helfen

Sich durchs Netz bewegen ohne dabei dauernd auf hirnlose, beleidigende Kommentare zu stoßen. Das ist unmöglich für diejenigen, die Youtube, Facebook oder Twitter benutzen – also für so ziemlich alle. Niemand konnte das Problem der mit Hass überlaufenden Kommentarspalten bisher lösen: nicht Social-Media-Redaktionen, [1][nicht die Schwarmintelligenz der User, und auch nicht all die Feuilleton-Appelle, doch bitte zu einer zivilen Gesprächskultur zurückzufinden].

Was Menschen alleine nicht konnten, verspricht jetzt eine neue Erweiterung für den Google-Browser Chrome, und zwar mittels künstlicher Intelligenz. „Tune“ heißt die Software, [2][die der Google-Mutterkonzern Alphabet am Dienstag vorgestellt hat,] entwickelt wurde sie von dessen Tochterunternehmen „Jigsaw“.

„Tune“ ist verknüpft mit „Perspective“, einer künstlichen Intelligenz, die Jigsaw 2017 entwickelt hat. Perspective erkennt die Art Kommentare, die gemeinhin als „toxisch“ bezeichnet werden: beleidigend, gewaltvoll und wenig hilfreich für eine produktive Diskussion.

Möglich wird das durch maschinelles Lernen: Die Software ist mit einem großen Datensatz aus Kommentaren „gefüttert“ worden, die irgendwann einmal Menschen als „toxisch“ eingestuft haben. Dadurch „lernt“ die Maschine, Texten einen Wert zuzuweisen, wie wahrscheinlich sie „toxisch“ sind. Als Nutzer*in, die „Tune“ installiert hat, kann man dann selbst regeln, ab welchem Schwellenwert die Kommentare ausgeblendet werden. Allerdings funktioniert das Tool bisher nur für Kommentare auf Englisch, denn deutschsprachige „Trainingssätze“ hat bei Google noch niemand zusammengestellt.

Die Maschine kann irren

In den Kommentarspalten der New York Times ist „Perspective“ schon seit Sommer 2017 im Einsatz, weswegen dort das Kommentieren überhaupt erst wieder möglich wurde. Vorher war es für die Social-Media-Redaktion der Zeitung kaum noch möglich, die vielen Kommentare zu kontroversen Themen zu moderieren.

Allerdings liegt hier auch der entscheidende Unterschied: Bei der New York Times trifft die Software eine Vorauswahl, am Ende entscheiden weiter Menschen, ob die Kommentare gesperrt werden. Das ist wichtig, weil die Maschine durchaus irrt. Bei der Chrome-Erweiterung sind die Kommentare dann einfach weg, auch wenn sie vielleicht zu unrecht als „toxisch“ eingestuft worden sind.

Außerdem könnte es sein, dass die lernende Maschine nicht immer mit aktuellen Debatten Schritt hält. Wenn die Trainingsdatensätze noch größtenteils aus der Obama-Zeit stammen, erkennt die Software nicht unbedingt die neuesten Beleidigungs-Moden der Trump-Ära.

13 Mar 2019

LINKS

[1] /Debatte-Hass-im-Netz/!5485857
[2] https://chrome.google.com/webstore/detail/tune-experimental/gdfknffdmmjakmlikbpdngpcpbbfhbnp

AUTOREN

Peter Weissenburger

TAGS

Google
Twitter / X
Schwerpunkt Meta
Hate Speech
Alphabet
Social Media
Schwerpunkt Künstliche Intelligenz
Hasskommentare
Greta Thunberg
Antisemitismus
Digitalisierung

ARTIKEL ZUM THEMA

Onlinemob stürzt sich auf Klimaaktivistin: Hass und Hetze gegen Greta Thunberg

Die 16-jährige schwedische Klimaschutzaktivistin bringt den rechten Onlinemob in Wallung. Das zeigt: Mit ihren Warnungen trifft sie einen Nerv.

Gastronom wird antisemitisch bedroht: Dreißig Seiten voller Hassmails

Yorai Feinberg erhält alle paar Tage antisemitische Hassmails. Polizei und Staatsanwaltschaft können ihm nicht helfen.

Aus Le Monde diplomatique: Die Filterblasen müssen platzen

Nach der Euphorie über das Internet folgt die Depression. Statt Befreiung schafft es Leere. Der Widerstand dagegen könnte uns der Revolution näher bringen.