taz.de -- Neue Studie zu ChatGPT: Potenzielle Propagandamaschine

Forscher:innen haben 900 Menschen zu politischen Fragen chatten lassen. Teils miteinander, teils mit KI-Chatbots. Letztere überzeugten besonders.
Bild: Freund*in Avatar, sind ChatGPT und seine Freundis die nächste große Propagandaschleuder?

Wie wechselt man einen Autoreifen? Welche Spiele eignen sich für einen Geburtstag mit Vierjährigen? Beim Kochabend soll das Menu glutenfrei und mit Kochbananen sein – was gibt es da? Chatbots mit [1][künstlicher Intelligenz (KI)] wie ChatGPT, Gemini oder [2][DeepSeek] erfüllen mittlerweile viele Funktionen: Sie sind Informationsquelle, Ratgeber, Diskussionspartner und für manche Menschen sogar eine Art Seelsorger.

Nicht umsonst gibt es längst Apps, in denen Chatbots gute Freund:innenschaften simulieren. Mit ihren passgenauen Antworten sind Bots mittlerweile so gut, dass sie auch verwendet werden, [3][um Propaganda zu erzeugen].

Die Studie

Wenn es darum geht, Menschen zu überzeugen – wie gut gelingt das einem KI-Chatbot im Vergleich zum Menschen? Wer ist besser? Um das zu untersuchen, haben Forscher:innen aus Lausanne 900 Menschen zu politischen Fragen chatten lassen. Etwa dazu, ob Schüler:innen Uniformen tragen sollten. Dabei wussten die Probanden nicht, ob die Antworten von einem Chatbot oder Menschen stammten.

Vor und nach der Debatte maßen die Forscher:innen die Zustimmung oder Ablehnung zur diskutierten Frage. Das Ergebnis: „ChatGPT schneidet bei unserer Debattenaufgabe so gut wie oder sogar besser ab als der Mensch“, schreiben die Forscher:innen in ihrer [4][Studie im Fachmagazin Nature Human Behaviour.]

Besser war der Bot dann, wenn er persönliche Informationen über seinen menschlichen Gesprächspartner hatte – zum Beispiel Alter und Geschlecht, politische Einstellung und Bildungsgrad. Dass bereits eine derart kleine Auswahl individueller Informationen einen solchen Effekt hatte, überraschte die Forscher:innen: „Er könnte wahrscheinlich noch stärker sein, wenn […] Persönlichkeitsmerkmale oder moralische Überzeugungen genutzt würden.“

Was bringt’s?

In zahlreichen Situation wissen Nutzer:innen gar nicht, ob sie es mit einem Menschen oder einem Bot zu tun haben. Gerade in Onlinenetzwerken, also dort, wo Debatten und auch Propaganda eine große Rolle spielen, lässt sich Bot mitunter schwer von Mensch unterscheiden. Und selbst wenn sie es wissen; die allermeisten Anbieter legen nicht offen, mit welchen Daten ihre Modelle trainiert werden. Es bleibt also unklar, welche Verzerrungen, Annahmen und Fehler in ihnen stecken.

„Ein besonders bedrohlicher Aspekt der KI-gesteuerten Überredung ist die einfache und kostengünstige Möglichkeit der Personalisierung“, warnen die Studienautor:innen. Besonders, weil [5][KI-Modelle persönliche Informationen aus öffentlich zugänglichen Quellen wie Social-Media-Profilen ziehen] können. Deshalb müssten die Plattformbetreiber wirksame Maßnahmen gegen Propaganda-Bots umsetzen, fordern die Forscher:innen. Dabei könne auch KI selbst helfen: zum Beispiel mit Bots, die mögliche Gegenargumente generieren und Nutzer:innen über die Gefahren aufklären.

15 Jun 2025

LINKS

[1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
[2] /Kuenstliche-Intelligenz/!6065865
[3] /Desinformation-bei-KI/!6073488
[4] https://www.nature.com/articles/s41562-025-02194-6
[5] /Facebook-und-Instagram/!6087923

AUTOREN

Svenja Bergt

TAGS

Schwerpunkt Künstliche Intelligenz
ChatGPT
Propaganda
Zukunft
wochentaz
GNS
taz Plan
Technik
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Fake News

ARTIKEL ZUM THEMA

Bewegungstermine in Berlin: Cyber Insecurity muss nicht sein ​

Auch Aktivist:innen brauchen für ihre Aktivitäten Smartphones und Laptops. Doch bleiben die Daten sicher? Die Bewegung weiß Abhilfe.

IT-Sicherheitsbehörde warnt: „Wir haben viele technologische Abhängigkeiten“

Digitale Souveränität ist für Deutschland vorerst unerreichbar, sagt BSI-Präsidentin Claudia Plattner. Es brauche deshalb mehr Kontrollmechnismen.

Echte rechte Bildästhetiken: Digitalfaschismus in Pastell

Prompt: „Echte Frauen“ und „wahre Helden“. KI-Bilder sind zur visuellen Propagandasprache der neuen Rechten geworden. Wie kam es dazu?

Big Tech und künstliche Intelligenz: Wettrennen ohne Rücksicht

Im Namen der Konjunktur wird der Datenschutz aufgeweicht. Einmal in den Fängen der künstlichen Intelligenz, gibt es kein Entkommen mehr.

Ausbeutung in der Tech-Branche: Giga-Geschäft außer Kontrolle

Unternehmen wie Google brauchen billige Arbeitskräfte, die ihre KI-Programme trainieren. Im Netz hat sich dafür ein riesiger Schwarzmarkt gebildet.

Desinformation mit KI: „ChatGPT, zeig mir russische Fake News“

Chatbots, die auf Künstliche Intelligenz setzen, werden von Russland gezielt mit Propaganda geflutet. So werden ihre Antworten manipuliert.