A OpenAI está reforçando as salvaguardas em seu gerador de vídeo de IA, Sora, para evitar o uso não autorizado de imagens de celebridades. A mudança ocorre depois que o ator Bryan Cranston e a Federação Americana de Artistas de Televisão e Rádio do Screen Actors Guild (SAG-AFTRA) levantaram preocupações sobre a criação de deepfakes sem consentimento. Isto reflete uma tensão crescente entre os criadores de IA e os detentores de direitos sobre a propriedade intelectual na era da IA generativa.
O problema com Sora: replicação descontrolada de semelhança
Sora, lançado há três semanas, permite aos usuários gerar vídeos realistas a partir de instruções de texto. Ao contrário da maioria das plataformas de IA, facilita a replicação sem esforço de rostos e vozes reconhecíveis. Isso levou a um aumento de deepfakes – alguns inofensivos, outros perturbadores e alguns totalmente maliciosos. A capacidade do aplicativo de colocar indivíduos em cenários fabricados sem permissão motivou ações diretas de celebridades e sindicatos.
Bryan Cranston alertou pessoalmente a SAG-AFTRA quando sua imagem apareceu em vídeos não autorizados de Sora. O acordo resultante com a OpenAI exige que as celebridades optem explicitamente pela utilização de suas imagens, revertendo efetivamente o padrão anterior em que as imagens estavam disponíveis, a menos que fossem excluídas. A OpenAI declarou que lamenta estas gerações não intencionais e reforçou as suas protecções.
Por que isso é importante: uma tendência mais ampla de conflitos de direitos autorais de IA
A controvérsia com Sora destaca uma questão crítica: a erosão do controle sobre a identidade pessoal na era digital. Os modelos de IA são treinados em vastos conjuntos de dados, muitas vezes incluindo material protegido por direitos autorais sem permissão explícita. Esta não é uma batalha nova. Anteriormente, a OpenAI tentou fazer com que as agências de talentos desistissem proativamente, uma estratégia que entrava em conflito com a lei de direitos autorais estabelecida e foi rapidamente revertida.
O caso vai além das celebridades: na semana passada, deepfakes de Martin Luther King Jr. inundaram a plataforma, incluindo conteúdos racistas e exploradores. A OpenAI pausou a geração de vídeos apresentando sua imagem depois que sua filha, Bernice A. King, implorou publicamente para que o abuso acabasse.
“As figuras públicas e as suas famílias devem, em última análise, ter controlo sobre a forma como a sua imagem é usada”, afirmou a OpenAI, sinalizando uma mudança no sentido do respeito pela agência individual.
O cenário jurídico e a resposta da OpenAI
A situação sublinha a área jurídica cinzenta mais ampla em torno do conteúdo gerado por IA. A empresa-mãe da OpenAI, Ziff Davis, está atualmente processando a OpenAI por violação de direitos autorais, demonstrando que esta batalha se estende além dos direitos das celebridades, abrangendo também as organizações de mídia.
Embora as atuais proteções da OpenAI sejam imperfeitas (a plataforma às vezes ainda permite semelhanças não autorizadas), a empresa está agora se envolvendo ativamente com detentores de direitos e agências de talentos para mitigar os perigos de apropriação indébita de propriedade intelectual.
O incidente com Sora é um sinal claro de que os desenvolvedores de IA devem equilibrar inovação com responsabilidade ética e legal. A era da geração desenfreada de deepfakes está chegando ao fim, à medida que as partes interessadas exigem maior controle sobre suas identidades digitais.
