taz.de -- Neue Studie zu ChatGPT: Potenzielle Propagandamaschine
Forscher:innen haben 900 Menschen zu politischen Fragen chatten lassen. Teils miteinander, teils mit KI-Chatbots. Letztere überzeugten besonders.
Wie wechselt man einen Autoreifen? Welche Spiele eignen sich für einen Geburtstag mit Vierjährigen? Beim Kochabend soll das Menu glutenfrei und mit Kochbananen sein – was gibt es da? Chatbots mit [1][künstlicher Intelligenz (KI)] wie ChatGPT, Gemini oder [2][DeepSeek] erfüllen mittlerweile viele Funktionen: Sie sind Informationsquelle, Ratgeber, Diskussionspartner und für manche Menschen sogar eine Art Seelsorger.
Nicht umsonst gibt es längst Apps, in denen Chatbots gute Freund:innenschaften simulieren. Mit ihren passgenauen Antworten sind Bots mittlerweile so gut, dass sie auch verwendet werden, [3][um Propaganda zu erzeugen].
Die Studie
Wenn es darum geht, Menschen zu überzeugen – wie gut gelingt das einem KI-Chatbot im Vergleich zum Menschen? Wer ist besser? Um das zu untersuchen, haben Forscher:innen aus Lausanne 900 Menschen zu politischen Fragen chatten lassen. Etwa dazu, ob Schüler:innen Uniformen tragen sollten. Dabei wussten die Probanden nicht, ob die Antworten von einem Chatbot oder Menschen stammten.
Vor und nach der Debatte maßen die Forscher:innen die Zustimmung oder Ablehnung zur diskutierten Frage. Das Ergebnis: „ChatGPT schneidet bei unserer Debattenaufgabe so gut wie oder sogar besser ab als der Mensch“, schreiben die Forscher:innen in ihrer [4][Studie im Fachmagazin Nature Human Behaviour.]
Besser war der Bot dann, wenn er persönliche Informationen über seinen menschlichen Gesprächspartner hatte – zum Beispiel Alter und Geschlecht, politische Einstellung und Bildungsgrad. Dass bereits eine derart kleine Auswahl individueller Informationen einen solchen Effekt hatte, überraschte die Forscher:innen: „Er könnte wahrscheinlich noch stärker sein, wenn […] Persönlichkeitsmerkmale oder moralische Überzeugungen genutzt würden.“
Was bringt’s?
In zahlreichen Situation wissen Nutzer:innen gar nicht, ob sie es mit einem Menschen oder einem Bot zu tun haben. Gerade in Onlinenetzwerken, also dort, wo Debatten und auch Propaganda eine große Rolle spielen, lässt sich Bot mitunter schwer von Mensch unterscheiden. Und selbst wenn sie es wissen; die allermeisten Anbieter legen nicht offen, mit welchen Daten ihre Modelle trainiert werden. Es bleibt also unklar, welche Verzerrungen, Annahmen und Fehler in ihnen stecken.
„Ein besonders bedrohlicher Aspekt der KI-gesteuerten Überredung ist die einfache und kostengünstige Möglichkeit der Personalisierung“, warnen die Studienautor:innen. Besonders, weil [5][KI-Modelle persönliche Informationen aus öffentlich zugänglichen Quellen wie Social-Media-Profilen ziehen] können. Deshalb müssten die Plattformbetreiber wirksame Maßnahmen gegen Propaganda-Bots umsetzen, fordern die Forscher:innen. Dabei könne auch KI selbst helfen: zum Beispiel mit Bots, die mögliche Gegenargumente generieren und Nutzer:innen über die Gefahren aufklären.
15 Jun 2025
LINKS
AUTOREN
TAGS
ARTIKEL ZUM THEMA
Auch Aktivist:innen brauchen für ihre Aktivitäten Smartphones und Laptops. Doch bleiben die Daten sicher? Die Bewegung weiß Abhilfe.
Digitale Souveränität ist für Deutschland vorerst unerreichbar, sagt BSI-Präsidentin Claudia Plattner. Es brauche deshalb mehr Kontrollmechnismen.
Prompt: „Echte Frauen“ und „wahre Helden“. KI-Bilder sind zur visuellen Propagandasprache der neuen Rechten geworden. Wie kam es dazu?
Im Namen der Konjunktur wird der Datenschutz aufgeweicht. Einmal in den Fängen der künstlichen Intelligenz, gibt es kein Entkommen mehr.
Unternehmen wie Google brauchen billige Arbeitskräfte, die ihre KI-Programme trainieren. Im Netz hat sich dafür ein riesiger Schwarzmarkt gebildet.
Chatbots, die auf Künstliche Intelligenz setzen, werden von Russland gezielt mit Propaganda geflutet. So werden ihre Antworten manipuliert.