OpenAI está reforzando las salvaguardias en su generador de vídeo de IA, Sora, para evitar el uso no autorizado de imágenes de celebridades. La medida se produce después de que el actor Bryan Cranston y el Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA) expresaran su preocupación por la creación de deepfakes sin consentimiento. Esto refleja una tensión creciente entre los desarrolladores de IA y los titulares de derechos sobre la propiedad intelectual en la era de la IA generativa.
El problema con Sora: replicación de semejanza incontrolada
Sora, lanzado hace tres semanas, permite a los usuarios generar vídeos realistas a partir de indicaciones de texto. A diferencia de la mayoría de las plataformas de inteligencia artificial, facilita la replicación sin esfuerzo de rostros y voces reconocibles. Esto ha provocado un aumento de los deepfakes: algunos inofensivos, otros inquietantes y algunos directamente maliciosos. La capacidad de la aplicación para colocar a personas en escenarios inventados sin permiso provocó la acción directa de celebridades y sindicatos.
Bryan Cranston alertó personalmente a SAG-AFTRA cuando su imagen apareció en videos no autorizados de Sora. El acuerdo resultante con OpenAI requiere que las celebridades opten explícitamente por que se utilicen sus imágenes, revirtiendo efectivamente el valor predeterminado anterior donde las imágenes estaban disponibles a menos que se excluyeran. OpenAI ha declarado que lamenta estas generaciones involuntarias y ha reforzado sus barreras de seguridad.
Por qué esto es importante: una tendencia más amplia de conflictos de derechos de autor en la IA
La controversia con Sora pone de relieve una cuestión crítica: la erosión del control sobre la identidad personal en la era digital. Los modelos de IA se entrenan en vastos conjuntos de datos, que a menudo incluyen material protegido por derechos de autor sin permiso explícito. Esta no es una batalla nueva. Anteriormente, OpenAI intentó que las agencias de talentos optaran por no participar de manera proactiva, una estrategia que chocó con la ley de derechos de autor establecida y que rápidamente se revirtió.
El caso va más allá de las celebridades: la semana pasada, deepfakes de Martin Luther King Jr. inundaron la plataforma, incluyendo contenido racista y explotador. OpenAI detuvo la generación de videos con su imagen después de que su hija, Bernice A. King, suplicó públicamente que se detuviera el abuso.
“Las figuras públicas y sus familias deberían, en última instancia, tener control sobre cómo se utiliza su imagen”, afirmó OpenAI, señalando un cambio hacia el respeto a la agencia individual.
El panorama legal y la respuesta de OpenAI
La situación pone de relieve la zona gris jurídica más amplia que rodea al contenido generado por IA. La empresa matriz de OpenAI, Ziff Davis, está demandando actualmente a OpenAI por infracción de derechos de autor, lo que demuestra que esta batalla se extiende más allá de los derechos de las celebridades y abarca también a las organizaciones de medios.
Si bien las barreras de seguridad actuales de OpenAI son imperfectas (la plataforma a veces todavía permite imágenes no autorizadas), la compañía ahora está colaborando activamente con los titulares de derechos y las agencias de talentos para mitigar los peligros de la apropiación indebida de la propiedad intelectual.
El incidente con Sora es una señal clara de que los desarrolladores de IA deben equilibrar la innovación con la responsabilidad ética y legal. La era de la generación de deepfake desenfrenada está llegando a su fin a medida que las partes interesadas exigen un mayor control sobre sus identidades digitales.





























