Von g.calder
OpenAI zeigt eine „rücksichtslose Missachtung“ von Produktsicherheit, dem Recht der Menschen an ihrem eigenen Abbild und sogar der Stabilität der Demokratie, so ein Schreiben der Watchdog-Organisation Public Citizen. Die Sora-Videoplattform wird typischerweise für Kurzvideos auf sozialen Medien verwendet und erzeugt Clips, die unterhaltsam genug sind, um geliked und geteilt zu werden. Ein beliebtes Motiv sind gefälschte Türkamera-Aufnahmen, in denen etwas leicht Ungewöhnliches passiert, das aber noch halbwegs glaubwürdig wirkt – etwa ein Känguru, das an einer Haustür auftaucht, oder eine schräg unterhaltsame Straßenszene. Doch die Software könnte sehr schnell zu einer Gefahr für uns alle werden.
Public Citizen hat OpenAI gerade aufgefordert, Sora aus dem öffentlichen Gebrauch zurückzuziehen, und bezeichnet die Veröffentlichung als verantwortungslos – sie beschleunige Deepfakes, Identitätsdiebstahl und Wahl-Manipulation. Ist es wirklich so schlimm?
OpenAI zeigt eine „rücksichtslose Missachtung“ der Produktsicherheit, des Rechts der Menschen an ihrem eigenen Abbild, der Stabilität der Demokratie und hat laut Public Citizen mit seiner Sora-Software sogar zu Suiziden geführt.
Die Gefahr von Deepfakes
Public Citizen schrieb einen Brief an OpenAI und an den US-Kongress mit der Forderung, Sora offline zu nehmen, bis robuste, testbare Schutzmechanismen implementiert sind. Die Organisation behauptet, die App sei unverantwortlich früh veröffentlicht worden, um sich einen Wettbewerbsvorteil zu verschaffen, ohne die erforderlichen Sicherheitsmaßnahmen zu berücksichtigen. Die Nutzung nicht-einvernehmlicher Abbildungen und weitverbreiteter Täuschung sind hier die zentralen Risiken, da synthetische Videos sich schneller verbreiten, als die Öffentlichkeit ihre Echtheit überprüfen kann.
JB Branch, Technik-Politik-Experte bei Public Citizen und Autor des Schreibens, sagt:
„Unsere größte Sorge ist die potenzielle Bedrohung für die Demokratie. Ich glaube, wir treten in eine Welt ein, in der Menschen nicht mehr wirklich vertrauen können, was sie sehen. Und wir beginnen Strategien in der Politik zu sehen, bei denen das erste Bild oder das erste Video, das veröffentlicht wird, das ist, was die Menschen im Gedächtnis behalten.“
Branch weiter:
„Sie treten voll aufs Gas, ohne Rücksicht auf Schäden. Vieles davon war vorhersehbar. Aber sie wollen ein Produkt herausbringen, Downloads generieren und Leute abhängig machen, statt das Richtige zu tun und diese Dinge vorher zu testen und sich um das Wohlergehen der alltäglichen Nutzer zu kümmern.“
OpenAI verursachte Suizide, behaupten Klagen
Sieben neue Klagen, die vergangene Woche bei Gerichten in Kalifornien eingereicht wurden, behaupten, der Chatbot habe Menschen in den Suizid oder in schädliche Wahnvorstellungen getrieben – selbst solche ohne zuvor bekannte psychische Probleme. Im Namen von sechs Erwachsenen und einem Teenager reichten das Social Media Victims Law Center und das Tech Justice Law Project Klagen ein, in denen behauptet wird, OpenAI habe bewusst seine GPT-4o-Version zu früh veröffentlicht, trotz interner Warnungen, dass sie gefährlich unterwürfig und psychologisch manipulativ sei. Vier der Betroffenen starben durch Suizid.
Public Citizen ist an den Klagen nicht beteiligt, teilt jedoch deren Bedenken. Branch sagt, OpenAI blockiere zwar Nacktheit, trotzdem würden „Frauen sehen, wie sie online auf andere Weise belästigt werden“. Ein Bericht von 404 Media vergangene Woche dokumentierte eine Flut von Sora-Videos, in denen Frauen gewürgt werden.
Wofür Sora-AI-Videos genutzt werden
Sora ermöglicht es jedem, kinoreife Fakes zu produzieren – seien es fiktive Türkamera-Szenen, lip-synchende Prominente oder fotorealistische Mini-Dramen, die wie echte Zeugenvideos aussehen. Diese Clips sind darauf ausgelegt, lustig, teilbar und „unheimlich echt“ zu sein – letztlich für den Dopamin-Kick. Doch wenn sie auf Plattformen geteilt werden, geht der Kontext verloren, und viele Menschen nehmen sie als real wahr.
Die Washington Post testete diese Theorie. Sie lud ein Sora-Fake-Video auf acht große Plattformen hoch – mit eingebetteten, manipulationssicheren Herkunftsmarkierungen. Nur eine Plattform, YouTube, erkannte und kennzeichnete es als künstlich – und versteckte die Kennzeichnung im Beschreibungstext. Wenn Plattformen nicht in der Lage oder nicht bereit sind, klare Hinweise darüber zu geben, was echt und was künstlich ist, gibt es keinen Weg, die Zuschauer vor irreführenden Inhalten zu schützen.
Wo es schiefgehen könnte – und bereits schiefgeht
- Wahlen: Einige realistische Fälschungen – etwa erfundene Polizeischüsse, gefälschte Geständnisse politischer Kandidaten oder manipulierte außenpolitische Berichte – können Wahlbeteiligung beeinflussen oder Unruhen auslösen, lange bevor Faktenchecks greifen. Public Citizen warnt vor Soras Auswirkungen auf „die Stabilität der Demokratie“.
- Belästigung und Erpressung: Nicht-einvernehmliche sexuelle Deepfakes, Rufschädigung und Erpressung sind bereits bei Bildern ein Problem – Videos vervielfachen den Schaden.
- Öffentliche Sicherheitsfakes: Gefälschte Katastrophenvideos oder Fake-Notfallmeldungen verbreiten sich schneller als Korrekturen und verwirren Rettungsdienste und die Öffentlichkeit. Soras fotorealistischer Alltagseffekt ist unvergleichlich, und der Unterschied zum echten Material wird immer schwerer erkennbar.
- Wirtschaftsbetrug: Synthetische Videos von CEOs, bekannten Persönlichkeiten oder Influencern können klassische Betrugsmaschen verstärken – etwa gefälschte Anweisungen zur Geldüberweisung. Stimm-Imitate täuschen bereits Banken – man stelle sich die Wirkung real wirkender Videos vor.
Was OpenAI unternimmt, um die Gefahren zu adressieren
OpenAI hat begonnen, öffentliche Persönlichkeiten aus Videos zu entfernen, und bietet Nutzern Kontrollfunktionen für „AI-Selbstversionen“, in denen persönliche Avatare auftauchen könnten. Einerseits erkennt das Unternehmen das Risiko an. Andererseits adressieren diese Maßnahmen nicht das gesamte Problem. OpenAI sagte, „Über-Moderation sei extrem frustrierend“, und betonte, es sei wichtig, vorsichtig zu sein, „während die Welt sich noch an diese neue Technologie anpasst“.
Im Oktober kündigte OpenAI Vereinbarungen mit der Familie von Martin Luther King Jr. an, um „respektlose Darstellungen“ des Bürgerrechtlers zu verhindern, während man an besseren Schutzmechanismen arbeitet. OpenAI gab außerdem ein ähnliches Abkommen mit bekannten Schauspielern, der SAG-AFTRA-Gewerkschaft und Talentagenturen bekannt.
„Das ist schön und gut, wenn man berühmt ist“, sagte Branch, hob aber ein weiteres Problem hervor: „Es ist ein Muster bei OpenAI, dass sie nur auf den Aufschrei einer sehr kleinen Bevölkerungsgruppe reagieren. Sie veröffentlichen etwas und entschuldigen sich später. Aber viele dieser Probleme sind Designentscheidungen, die sie vor der Veröffentlichung hätten treffen können.“
Der größere AI-Kontext
Der Brief von Public Citizen trifft auf eine wachsende Erkenntnis: Wir bauen Plattformen, die Täuschung einfacher denn je machen – statt Systeme, die davor schützen. Sora-Videos können unterhaltsam sein, aber bei Scroll-Geschwindigkeit kaum von echten Aufnahmen zu unterscheiden. Und ohne glaubhafte Kennzeichnungen lassen wir zu, dass die Öffentlichkeit sich an Fake-Inhalte gewöhnt – und irgendwann die Unterscheidung verlernt.
OpenAI hat Deepfakes nicht erfunden, und Konkurrenten werden wahrscheinlich schnell nachziehen. Echte Führung würde bedeuten, langsamer zu agieren, bis die Sicherheitsmechanismen vorhanden sind – nicht so schnell zu rennen, dass wir sie nie richtig installieren können. In der Zwischenzeit werden Watchdog-Organisationen weiterhin ihre Entfernung aus dem öffentlichen Raum fordern, bis gewöhnliche Menschen wieder zwischen Fakten und Fiktion unterscheiden können.
Abschließender Gedanke
Glaubst du, dass du den Unterschied zwischen den neuesten AI-Videos und der Realität zuverlässig erkennen könntest? Was ist das größte Risiko, wenn diese Technologie für jeden verfügbar ist? Und was können wir dagegen tun? Teile deine Gedanken unten.
OpenAI muss Sora zurückziehen: Wie Deepfake-AI-Videos uns alle gefährden
