OpenAI renforce les mesures de protection dans son générateur vidéo d’IA, Sora, pour empêcher l’utilisation non autorisée de ressemblances de célébrités. Cette décision intervient après que l’acteur Bryan Cranston et la Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA) ont exprimé leurs inquiétudes concernant la création de deepfakes sans consentement. Cela reflète une tension croissante entre les développeurs d’IA et les titulaires de droits sur la propriété intellectuelle à l’ère de l’IA générative.
Le problème avec Sora : réplication de ressemblance incontrôlée
Sora, lancé il y a trois semaines, permet aux utilisateurs de générer des vidéos réalistes à partir d’invites textuelles. Contrairement à la plupart des plateformes d’IA, elle facilite la réplication sans effort de visages et de voix reconnaissables. Cela a conduit à une recrudescence des deepfakes – certains inoffensifs, d’autres inquiétants et certains carrément malveillants. La capacité de l’application à placer des individus dans des scénarios fabriqués sans autorisation a incité des célébrités et des syndicats à agir directement.
Bryan Cranston a personnellement alerté SAG-AFTRA lorsque son portrait est apparu dans des vidéos Sora non autorisées. L’accord qui en résulte avec OpenAI exige que les célébrités acceptent explicitement que leurs images soient utilisées, inversant ainsi la situation par défaut précédente où les ressemblances étaient disponibles à moins d’être exclues. OpenAI a déclaré regretter ces générations involontaires et a renforcé ses garde-fous.
Pourquoi c’est important : une tendance plus large des conflits de droits d’auteur en matière d’IA
La controverse avec Sora met en lumière un problème crucial : l’érosion du contrôle sur l’identité personnelle à l’ère numérique. Les modèles d’IA sont formés sur de vastes ensembles de données, comprenant souvent du matériel protégé par le droit d’auteur sans autorisation explicite. Ce n’est pas une nouvelle bataille. OpenAI avait déjà tenté de faire en sorte que les agences artistiques se désengagent de manière proactive, une stratégie qui allait à l’encontre de la loi en vigueur sur le droit d’auteur et qui a été rapidement inversée.
L’affaire va au-delà des célébrités : la semaine dernière, des deepfakes de Martin Luther King Jr. ont inondé la plateforme, incluant des contenus racistes et exploiteurs. OpenAI a suspendu la génération de vidéos présentant son portrait après que sa fille, Bernice A. King, ait publiquement plaidé pour que les abus cessent.
“Les personnalités publiques et leurs familles devraient en fin de compte avoir le contrôle sur la manière dont leur image est utilisée”, a déclaré OpenAI, signalant une évolution vers le respect de l’action individuelle.
Le paysage juridique et la réponse d’OpenAI
La situation souligne la zone grise juridique plus large entourant le contenu généré par l’IA. La société mère d’OpenAI, Ziff Davis, poursuit actuellement OpenAI pour violation du droit d’auteur, démontrant que cette bataille s’étend au-delà des droits des célébrités pour englober également les organisations médiatiques.
Bien que les garde-fous actuels d’OpenAI soient imparfaits (la plateforme autorise encore parfois des ressemblances non autorisées), la société s’engage désormais activement auprès des titulaires de droits et des agences artistiques pour atténuer les dangers d’appropriation illicite de la propriété intellectuelle.
L’incident avec Sora est un signal clair selon lequel les développeurs d’IA doivent trouver un équilibre entre innovation et responsabilité éthique et juridique. L’ère de la génération incontrôlée de deepfake touche à sa fin alors que les parties prenantes exigent un plus grand contrôle sur leur identité numérique.




























