taz.de -- Experiment mit Nutzer-Emotionen: Facebook verbreitet schlechte Laune

Für ein Experiment manipulierte Facebook die Emotionen von 700.000 Nutzern – offenbar erfolgreich. Der Konzern ist in der Kritik, weil er das ohne Zustimmung tat.
Bild: Freude durch Facebook?

MENLO PARK dpa/taz | Facebook hat für eine Studie die Auswahl der Einträge im Nachrichtenstrom von mehreren Hunderttausend Nutzern manipuliert. Bei [1][dem Experiment] sollte erforscht werden, wie sich positive und negative Emotionen in Netzwerken ausbreiten. Die Autoren der kürzlich veröffentlichten Studie kamen zu dem Schluss, dass Menschen, die mehr positive Nachrichten sahen, etwas eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen – und umgekehrt.

Insgesamt wurden im Januar 2013 für eine Woche die Newsfeeds von knapp 690.000 Nutzern der englischsprachigen Facebook-Version manipuliert. Es wurden laut Studie über drei Millionen Einträge von Software ausgewertet, die per Wortanalyse die Emotion zuordnete.

Das brachte neben Kritik an der ethischen Seite des Experiments auch Zweifel an der Aussagekraft der Studie: So verwies [2][das Psychologie-Blog „Psych Central“] auf Schwierigkeiten der verwendeten Software, die Stimmung eines Eintrags nur anhand einzelner Wörter zuzuordnen. Von Facebook gab es zunächst keine Reaktion.

Die Studie war bereits am 2. Juni veröffentlicht worden, kam aber erst jetzt mit Medienberichten und Kritik im Internet in die Diskussion. In dem Papier wird darauf hingewiesen, dass die Datenverwendungsregeln von Facebook, denen die Nutzer zustimmen, ein solches Vorgehen zulassen. Das [3][Online-Magazin Slate] kritisierte allerdings, dass dies nicht die „informierte Einwilligung“ ersetze, die allgemein für wissenschaftliche Experimente mit Menschen gefordert wird.

29 Jun 2014

LINKS

[1] http://www.pnas.org/content/111/24/8788.full
[2] http://psychcentral.com/blog/archives/2014/06/23/emotional-contagion-on-facebook-more-like-bad-research-methods/
[3] http://www.slate.com/articles/health_and_science/science/2014/06/facebook_unethical_experiment_it_made_news_feeds_happier_or_sadder_to_manipulate.html

TAGS

Schwerpunkt Meta
Psychologie
Wissenschaft
Ethik
Schwerpunkt Meta
Schwerpunkt Meta
Schwerpunkt Meta
Schwerpunkt Meta
Schwerpunkt Meta
Schwerpunkt Meta
Schwerpunkt Meta
Schwerpunkt Meta

ARTIKEL ZUM THEMA

Facebook warnt nun vor Satire: Vorsicht! Könnte lustig sein

Facebook führt eine neue Markierung ein und spielt mal wieder den Spaßverderber. Diese soll satirische Posts als solche ausweisen.

Experimente mit Internet-Nutzern: Falsch berechnete Liebe bei OkCupid

Nach Facebook gibt auch die Partnerbörse „OkCupid“ Nutzer-Experimente zu. Unter anderem wurde angezeigt, sie würden besser zueinander passen als errechnet.

Psycho-Experiment von Facebook: Datenschützer sehen Verstoß

Aktivisten aus den USA kritisieren, dass Facebook mit dem Test gegen Regeln zum Schutz der Nutzer verstoßen habe. Sie verlangen jetzt Transparenz.

Umstrittenes Timeline-Experiment: Facebook will doch nur verstehen

Facebook sorgt sich um seine User. So erklärt ein Autor die Studie, bei der Newsfeeds manipuliert wurden. Auch auf sein internes Aufsichtsverfahren verweist Facebook.

Studie über Facebook: Die Neidspirale

Facebook macht neidisch auf das vermeintlich schöne Leben von anderen, sagt eine Studie. Was Abhilfe schafft? Mut zu einer „Loser“-Kampagne!

Facebook in den USA und Kanada: Reagieren auf Selbstmordgedanken

Facebook hat in den USA und Kanada eine Funktion zur Selbstmordprävention eingeführt. Damit können Nutzer ihren Freunden einen Berater von Lifeline vermitteln.

Warum wir Facebook brauchen: Waffe gegen den Selbstzweifel

Mit der neuen Facebook-Timeline werden die User noch mehr Privates in die Öffentlichkeit tragen. Warum Menschen freiwillig den Daten-Kraken füttern.