taz.de -- Falschaussagen der KI: Rufschädigung durch ChatGPT
Die KI-Anwendung bezeichnete den australischen Bürgermeister Brian Hood fälschlicherweise als Kriminellen. Dagegen will er vorgehen.
Melbourne afp | Den Entwicklern der auf künstlicher Intelligenz (KI) [1][beruhenden Anwendung ChatGPT] droht erstmalig eine Verleumdungsklage. Er sei „entsetzt“ über die komplett falschen Informationen gewesen, die der Chatbot über ihn verbreite, sagte der Bürgermeister der australischen Kleinstadt Hepburn Shire, Brian Hood, am Donnerstag dem Rundfunksender ABC. ChatGPT bezeichnet Hood als Kriminellen und bringt ihn mit einem Bestechungs- und Korruptionsskandal zusammen. In Wirklichkeit aber hatte er den Skandal mit aufgedeckt.
Über seine Anwälte hatte Hood dem Unternehmen OpenAI, das hinter dem Chatbot steht, eine Mahnung geschickt, die Falschmeldung zu löschen – andernfalls drohe eine Klage vor Gericht. Bislang hat OpenAI nach seinen Angaben nicht reagiert – allerdings enthält der Chatbot als Haftungsausschluss den Hinweis, dass er möglicherweise „unkorrekte Informationen über Menschen, Orte oder Fakten“ liefert.
„Dass etwas [2][ein bisschen falsch wiedergegeben] wird, ist eine Sache – aber es ist etwas ganz anderes, wenn jemand als Krimineller beschuldigt wird, der sogar im Gefängnis gesessen haben soll“, sagte Hood. Sein Anwalt James Naughton sagte, die von ChatGPT gelieferten Informationen seien verleumderisch und hätten den Ruf des Bürgermeisters beschädigt.
Hood hatte vor seinem Amtsantritt als Bürgermeister dabei geholfen, Bestechungen und andere Vergehen bei seinem damaligen Arbeitgeber aufzudecken. Dies führte in der Folge zu mehreren Anklagen.
ChatGPT erstellt mithilfe von KI Texte. Nutzer können einzelne Befehle oder Sätze vorgeben, die das System dann mithilfe riesiger Datenmengen aus dem Internet eigenständig ergänzt.
6 Apr 2023
LINKS
TAGS
ARTIKEL ZUM THEMA
Künstliche Intelligenz dürfte die Menschheit schneller verändern als die Entdeckung des Feuers. Es geht um Grundfragen: Wer wollen wir sein?
Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen.
Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen wir zu menschlichen Metaphern. Aber das birgt Probleme.
Sucht, Schulden, Kindererziehung – bei vielen Problemen können Online-Beratungsstellen via Chat und Mail helfen. Auch mit einer KI?
Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den Anfang einer rasanten Entwicklung – die auch Risiken birgt.