OpenAI versterkt de veiligheidsmaatregelen in zijn AI-videogenerator Sora om ongeoorloofd gebruik van gelijkenissen van beroemdheden te voorkomen. De stap komt nadat acteur Bryan Cranston en de Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA) hun bezorgdheid hebben geuit over het creëren van deepfakes zonder toestemming. Dit weerspiegelt een groeiende spanning tussen AI-ontwikkelaars en rechthebbenden over intellectueel eigendom in het tijdperk van generatieve AI.
Het probleem met Sora: ongecontroleerde replicatie van gelijkenissen
Met Sora, drie weken geleden gelanceerd, kunnen gebruikers realistische video’s genereren op basis van tekstprompts. In tegenstelling tot de meeste AI-platforms vergemakkelijkt het de moeiteloze replicatie van herkenbare gezichten en stemmen. Dit heeft geleid tot een golf van deepfakes – sommige onschadelijk, andere verontrustend en sommige ronduit kwaadaardig. Het vermogen van de app om individuen zonder toestemming in verzonnen scenario’s te plaatsen, leidde tot directe actie van beroemdheden en vakbonden.
Bryan Cranston waarschuwde SAG-AFTRA persoonlijk toen zijn beeltenis verscheen in niet-geautoriseerde Sora-video’s. De daaruit voortvloeiende overeenkomst met OpenAI vereist dat beroemdheden expliciet kiezen voor het gebruik van hun afbeeldingen, waardoor de eerdere standaard waarbij gelijkenissen beschikbaar waren, effectief wordt teruggedraaid, tenzij uitgesloten. OpenAI heeft verklaard deze onbedoelde generaties te betreuren en heeft de vangrails versterkt.
Waarom dit ertoe doet: een bredere trend van AI-auteursrechtconflicten
De controverse met Sora benadrukt een cruciaal probleem: de erosie van de controle over de persoonlijke identiteit in het digitale tijdperk. AI-modellen worden zonder expliciete toestemming getraind op enorme datasets, vaak inclusief auteursrechtelijk beschermd materiaal. Dit is geen nieuwe strijd. OpenAI heeft eerder geprobeerd om talentbureaus proactief te laten afmelden, een strategie die in strijd was met de gevestigde auteursrechtwetgeving en snel werd teruggedraaid.
De zaak gaat verder dan beroemdheden: vorige week overspoelden deepfakes van Martin Luther King Jr. het platform, inclusief racistische en uitbuitende inhoud. OpenAI stopte het maken van video’s met zijn beeltenis nadat zijn dochter, Bernice A. King, publiekelijk had gepleit om het misbruik te stoppen.
“Publieke figuren en hun families zouden uiteindelijk de controle moeten hebben over hoe hun beeltenis wordt gebruikt”, aldus OpenAI, wat een verschuiving aangeeft in de richting van het respecteren van individuele keuzevrijheid.
Het juridische landschap en de reactie van OpenAI
De situatie onderstreept het bredere juridische grijze gebied rond door AI gegenereerde inhoud. Het moederbedrijf van OpenAI, Ziff Davis, klaagt OpenAI momenteel aan wegens inbreuk op het auteursrecht, wat aantoont dat deze strijd verder reikt dan de rechten van beroemdheden en ook mediaorganisaties omvat.
Hoewel de huidige vangrails van OpenAI onvolmaakt zijn (het platform staat soms nog steeds ongeoorloofde gelijkenissen toe), werkt het bedrijf nu actief samen met rechthebbenden en talentbureaus om de gevaren van verduistering van intellectuele eigendom te beperken.
Het incident met Sora is een duidelijk signaal dat AI-ontwikkelaars innovatie in evenwicht moeten brengen met ethische en juridische verantwoordelijkheid. Het tijdperk van ongecontroleerde deepfake-generatie loopt ten einde nu belanghebbenden meer controle over hun digitale identiteit eisen.





























