OpenAI verstärkt die Sicherheitsmaßnahmen in seinem KI-Videogenerator Sora, um die unbefugte Verwendung von Porträts von Prominenten zu verhindern. Der Schritt erfolgte, nachdem der Schauspieler Bryan Cranston und die Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA) Bedenken hinsichtlich der Erstellung von Deepfakes ohne Zustimmung geäußert hatten. Dies spiegelt eine wachsende Spannung zwischen KI-Entwicklern und Rechteinhabern über geistiges Eigentum im Zeitalter generativer KI wider.
Das Problem mit Sora: Unkontrollierte Ähnlichkeitsreplikation
Sora wurde vor drei Wochen eingeführt und ermöglicht es Benutzern, realistische Videos aus Textaufforderungen zu erstellen. Im Gegensatz zu den meisten KI-Plattformen ermöglicht es die mühelose Replikation erkennbarer Gesichter und Stimmen. Dies hat zu einem Anstieg von Deepfakes geführt – einige harmlos, andere beunruhigend und einige geradezu bösartig. Die Fähigkeit der App, Einzelpersonen ohne Erlaubnis in erfundene Szenarien zu versetzen, löste direkte Maßnahmen von Prominenten und Gewerkschaften aus.
Bryan Cranston alarmierte SAG-AFTRA persönlich, als sein Konterfei in nicht autorisierten Sora-Videos auftauchte. Die daraus resultierende Vereinbarung mit OpenAI verlangt von Prominenten, dass sie der Verwendung ihrer Bilder ausdrücklich zustimmen, wodurch die bisherige Vorgabe, dass Bildnisse verfügbar waren, sofern sie nicht ausgeschlossen wurden, faktisch umgekehrt wird. OpenAI hat erklärt, dass es diese unbeabsichtigten Generationen bedauert und seine Leitplanken verstärkt hat.
Warum das wichtig ist: Ein breiterer Trend zu KI-Urheberrechtskonflikten
Die Kontroverse mit Sora wirft ein Schlaglicht auf ein kritisches Thema: die Erosion der Kontrolle über die persönliche Identität im digitalen Zeitalter. KI-Modelle werden ohne ausdrückliche Genehmigung auf riesigen Datensätzen trainiert, die häufig urheberrechtlich geschütztes Material enthalten. Dies ist kein neuer Kampf. OpenAI hatte zuvor versucht, Talentagenturen dazu zu bringen, sich proaktiv abzumelden, eine Strategie, die im Widerspruch zum geltenden Urheberrecht stand und schnell rückgängig gemacht wurde.
Der Fall geht über Prominente hinaus: Letzte Woche überschwemmten Deepfakes von Martin Luther King Jr. die Plattform, darunter rassistische und ausbeuterische Inhalte. OpenAI unterbrach die Erstellung von Videos mit seinem Konterfei, nachdem seine Tochter Bernice A. King öffentlich dafür plädiert hatte, den Missbrauch zu beenden.
„Persönlichkeiten des öffentlichen Lebens und ihre Familien sollten letztendlich die Kontrolle darüber haben, wie ihr Abbild verwendet wird“, erklärte OpenAI und signalisierte damit einen Wandel hin zur Achtung der individuellen Entscheidungsfreiheit.
Die Rechtslandschaft und die Antwort von OpenAI
Die Situation unterstreicht die umfassendere rechtliche Grauzone rund um KI-generierte Inhalte. Die Muttergesellschaft von OpenAI, Ziff Davis, verklagt OpenAI derzeit wegen Urheberrechtsverletzung und zeigt damit, dass dieser Kampf über die Rechte von Prominenten hinausgeht und auch Medienorganisationen umfasst.
Auch wenn die aktuellen Schutzmaßnahmen von OpenAI unvollkommen sind (die Plattform erlaubt immer noch manchmal nicht autorisierte Ähnlichkeiten), arbeitet das Unternehmen jetzt aktiv mit Rechteinhabern und Talentagenturen zusammen, um die Gefahren der widerrechtlichen Aneignung von geistigem Eigentum zu mindern.
Der Vorfall mit Sora ist ein klares Signal dafür, dass KI-Entwickler Innovation mit ethischer und rechtlicher Verantwortung in Einklang bringen müssen. Die Ära der unkontrollierten Deepfake-Generierung geht zu Ende, da Stakeholder mehr Kontrolle über ihre digitalen Identitäten fordern.
