taz.de -- Social-Media-App Sora: OpenAI startet einen KI-Fake-Feed

OpenAI, das Unternehmen hinter ChatGPT, startet eine neue Social-Media-App. Dort können User*innen ausschließlich KI-Videos posten.
Bild: Wird irgendwann der Punkt kommen, an dem ich einer KI mein Gesicht, meine Bewegungen und meinen Personalausweis aushändige?

OpenAi macht jetzt auch Tiktok. Aber nicht auf Tiktok selbst, sondern auf einer eigenen Plattform. Dafür aber mit mehr von dem, was viele ohnehin für Tiktok halten: Fakes. OpenAI ist vor allem bekannt für sein Programm [1][ChatGPT], das in den letzten drei Jahren die Gesellschaft verändert hat. Jetzt hat das Unternehmen eine neue App vorgestellt: Sora. Mit der sollen User*innen KI-Videos schnell und einfach erstellen und teilen können. Sortiert werden sie dann von einem Algorithmus. Zumindest Letzteres ist nichts Neues, sondern das Erfolgsprinzip von [2][Facebook, Instagram], Youtube und eben: Tiktok. Ein Strudel, der gefällt, der teils politisiert, teils informiert. Wobei Sora – anders als die aktuellen Giganten – die Inhalte von Freund*innen priorisieren will. Das bedeutet nicht unbedingt Sicherheit vor Desinformation, sondern erst mal vor allem, dass sie persönlicher daherkommt, weil sie eben der Cousin der Freundin von Janina gepostet hat.

Egal, wie viel [3][Fake, Propaganda, Lüge] auf Tiktok und Co. zu sehen ist, selbst wenn viele der Videos dort ebenfalls mit KI bearbeitet wurden: Zwischendrin sind doch immer noch echte Menschen. Bei Sora aber nicht. Alle Videos werden mit einer KI generiert: Sora 2. Das ist eine relativ junge KI von OpenAI. Die Textbefehle zu Videos macht. Die Videos können nachträglich von anderen User*innen bearbeitet und wieder geteilt werden. „Remix“ nennt OpenAI dieses Verwenden und Replizieren von Inhalten und tut ein bisschen so, als wäre es eine neue Sache, [4][dabei erstellen Menschen im Internet seit Jahrzehnten Memes].

Bei Sora darf man sogar selbst rein in die Fakes. Wer will, kann sich aufnehmen, dann macht die KI eine schicke, digitale Version von einem, ein sogenanntes „Cameo“. Das kann man dann von der KI in Videos einbetten lassen. Man kann dafür auch die Cameos von anderen nutzen, wobei diese die Inhalte auch wieder löschen können. So sollen die Persönlichkeitsrechte gewahrt bleiben. Spannend, wie überprüft werden soll, dass ich wirklich diese Person bin, deren Video ich hochgeladen habe, um ein Cameo zu erstellen. Wird irgendwann der Punkt kommen, an dem ich einer KI mein Gesicht, meine Bewegungen und meinen Personalausweis aushändige?

OpenAI hat bei der Vorführung der App harmloses Material gezeigt, wie eine Eiskunstläuferin auf einem gefrorenen See. Dabei wird klar: Es fällt schwer, diese Videos als nichtmenschlich zu erkennen. Und es fällt schwer, bei der Vorstellung eines sozialen Mediums, bei dem Menschen ausschließlich KI-Fake-Videos erstellen und teilen, nicht pessimistisch zu werden. Diese Plattform könnte ein bunter „Alice im Wunderland“-Strudel werden. Oder eine weitere Stufe abwärts in den modrigen Lügen-Keller.

Vorerst gibt es die App nur in Kanada und den USA, nur auf dem iPhone und nur auf Einladung. Eine Beschränkung wie für ein Experiment, ob man die Cameos wirklich vor Missbrauch schützen kann. Und wie ein Bremsklotz, damit die Plattform sich an langsam wachsende Zugriffsraten und Datenverkehr gewöhnen kann. Vielleicht wird OpenAI währenddessen auch herausfinden, wie sich die App finanziert. Aktuell zahlen Menschen nur selten für KI-Dienste, die allerdings enorme Kosten verursachen. Sora soll laut OpenAI aber vorerst werbefrei sein. Im Internet bedeutet das oft: Die Nutzer*innen zahlen mit ihren Daten.

8 Oct 2025

LINKS

[1] /Unterhaltungen-mit-ChatGPT/!6102247
[2] /Schwerpunkt-Meta/!t5009279
[3] /Fake-News/!t5325634
[4] /Memes/!t5354742

AUTOREN

Johannes Drosdowski

TAGS

Fake News
Schwerpunkt Meta
Big Tech
Social Media
TikTok
Schwerpunkt Künstliche Intelligenz
Reden wir darüber
Social-Auswahl
Big Tech
wochentaz
wochentaz
wochentaz

ARTIKEL ZUM THEMA

Grenzen von Chatbots: Auch die KI glaubt an Gott

ChatGPT kann bald erotische Konversationen führen. Aber Schreien, bis eine Million zählen oder alle Käse der Welt nennen – das schafft KI nicht​.

Data-Worker und Drecksarbeit: Raus aus der Unsichtbarkeit

Damit KI und Social Media nutzbar werden, blicken Data-Worker im Verborgenen in Abgründe. In Kenia regt sich nun aber Widerstand.

KI-Trainingsdaten blockieren: Das große Crawlen

KI-Unternehmen klauen Wissen, das andere mühsam zusammengetragen haben. Ein Unternehmen will hungrige Bots blockieren. Was macht das mit dem Internet?

Politik auf Social Media: Die Supermacht der Influencer

Der erschossene Podcaster Charlie Kirk war einer der engsten Trump-Vertrauten. Doch nicht nur in den USA gewinnen Social-Media-Stars an politischem Einfluss.