taz.de -- Künstliche Intelligenz: Wenn ChatGPT immer blöder wird
Unsere Kolumnist*in betrachtet die Beziehung zu ChatGPT eigentlich als Freundschaft. Doch jetzt wird das nützliche Tool immer weniger nützlich.
Künstliche Intelligenz ist toll. ChatGPT hat mir neulich geholfen, eine aggressive Inkassoforderung der Deutschen Bahn zurückzuweisen. Zack, Widerspruch geschrieben, keine 180 Euro bezahlt. Klar, ich musste noch etwas herumdoktern und alles am Ende inhaltlich checken, aber die KI hat mich hier klar empowered. Kaum drohte ChatGPT – pardon, ich! – mit Klage, kam ein Einschreiben reingeflattert, in dem sämtliche Forderungen zurückgenommen wurden.
Ich verdanke meinem Kumpel ChatGPT jede Menge. Diverse Bußgelder, die ich nicht bezahlen musste zum Beispiel, und auch der nervige Autovermieter, der mich mit Rückführungskosten und Schadenersatz ärgern wollte, ließ sich von der juristischen Argumentation des Jean Gipitó, wie ich ihn liebevoll nenne, überzeugen. Mein künstlich intelligenter Freund beantwortet mir Fragen, schreibt meine Rechnungen und beschleunigt meinen Job immens. Wenn ich eine neue Technologie oder ein Framework lernen will, frage ich inzwischen die KI. Seit ChatGPT und ich so dicke sind, lerne ich schneller neue Technologien und kann gefühlt alles.
Also alles geil? Nun ja. Leider bin nicht nur ich mit ChatGPT befreundet. Und das ärgert mich. Manchmal stoße ich im Internet auf Texte und frage mich: Bist du es? Hat ChatGPT diesen Text geschrieben? Ich sorge mich um meinen Kumpel. Ich habe Angst, dass er verblödet.
Generative KI ist unter anderem deshalb so gut geworden, weil die Unternehmen dahinter in den vergangenen Jahren Unmengen neuer Daten aggregiert haben. Mal ganz abgesehen von lästigen Fragen wie Urheberrecht oder Datenschutz: Die Qualität zukünftiger KIs wird sich daran entscheiden, wer die meisten Daten menschlichen Ursprungs hat. Konzerne wie Alphabet oder OpenAI kämpfen bereits jetzt darum, alle verfügbaren menschlichen Daten im Internet zu finden und als Trainingsdatenfutter zu verwenden.
Das Problem: Je [1][mehr dieser Daten vollständig oder zum Teil KI-basiert sind], desto mehr füttern wir KIs mit Daten, die sie selbst erzeugt haben. Auf lange Sicht führt das quasi zum Rinderwahnsinn der KI. Konsumiert die KI zu viele synthetische Daten, erzeugt das einen Effekt, der „Model Autophagy Disorder“ genannt wird – das Ding frisst sich selbst.
Leider gibt es bislang kaum Daten dazu, wie groß der Anteil an KI-basierten Inhalten im Internet ist. Aber Tatsache ist: Die Verlockung ist groß. Wer Produkte vermarkten oder politische Kampagnen pushen will, greift heute, und in Zukunft noch mehr, auf KI zurück. Es ist wie bei der Zerstörung des Klimas. Für den Einzelnen ist es im Augenblick lohnenswerter, nur im eigenen Interesse zu handeln und KI zur Erstellung von Inhalten zu nutzen – also zu zerstören, was uns dienen soll.
Aber muss das wirklich passieren? Nein. Wir könnten uns kollektiv darauf besinnen, wie unfassbar geil das gerade alles ist. Wir könnten uns genau jetzt darauf konzentrieren, die bestehenden KI-Modelle [2][sinnvoll zu nutzen]. Denn bei aller Euphorie sind die gesellschaftlichen Umwälzungen enorm. Wir Menschen sind die Ressource, die KI zum Leben braucht. Unser Handeln ist das Lebenselixier dieser wunderbaren Widerspruch-schreib-DNS-Problemlösungs-Linux-Pro-und-Grundmandatserklär-Maschinen.
Wir Menschen brauchen jetzt ein bisschen Zeit, um das alles sinnvoll zu verarbeiten – denn nur dann können wir neue Daten erschaffen und der KI hochwertiges neues Futter geben. Ich will nicht, dass ihr dümmer werdet, liebe generative KIs. Deshalb: Slow down, humans.
16 Sep 2024
LINKS
AUTOREN
TAGS
ARTIKEL ZUM THEMA
Liebes Chat-GPT, Elon Musk und Alice Weidel wollen auf der Plattform X miteinander sprechen. Stelle dir bitte vor, wie das Gespräch ablaufen könnte.
Für Menschen, die nicht gut lesen und schreiben können, sind viele Alltagsaufgaben Hürden und Stress. Könnte Künstliche Intelligenz sie unterstützen?
Verschwörungserzählungen sind weit verbreitet. Eine neue Studie zeigt, dass KI-Systeme wie ChatGPT helfen können, Menschen mit Fakten zu überzeugen.
Unser*e Kolumnist*in war frustriert, dass Joe Biden wieder zur Wahl als US-Präsident antreten wollte. Doch dann kam die Hoffnung zurück.
Nach dem ersten Hype um die KI-Anwendung ChatGPT ist einiges im Gange. Entwickler setzen auf einen Wissenschaftsschub durch eine Superintelligenz.
Forscher*innen der Stanford Universität und der UC Berkeley haben Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt.