додому Ultime notizie e articoli OpenAI rafforza i controlli Deepfake dopo il contraccolpo delle celebrità

OpenAI rafforza i controlli Deepfake dopo il contraccolpo delle celebrità

OpenAI sta rafforzando le misure di sicurezza nel suo generatore di video AI, Sora, per prevenire l’uso non autorizzato delle sembianze di celebrità. La mossa arriva dopo che l’attore Bryan Cranston e la Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA) hanno espresso preoccupazione per i deepfake creati senza consenso. Ciò riflette una crescente tensione tra gli sviluppatori di intelligenza artificiale e i detentori dei diritti sulla proprietà intellettuale nell’era dell’intelligenza artificiale generativa.

Il problema con Sora: replicazione incontrollata della somiglianza

Sora, lanciato tre settimane fa, consente agli utenti di generare video realistici da messaggi di testo. A differenza della maggior parte delle piattaforme AI, facilita la replica semplice di volti e voci riconoscibili. Ciò ha portato a un’ondata di deepfake: alcuni innocui, altri inquietanti e alcuni addirittura dannosi. La capacità dell’app di collocare gli individui in scenari inventati senza autorizzazione ha spinto all’azione diretta da parte di celebrità e sindacati.

Bryan Cranston ha avvisato personalmente SAG-AFTRA quando la sua somiglianza è apparsa in video non autorizzati di Sora. L’accordo risultante con OpenAI richiede alle celebrità di acconsentire esplicitamente all’utilizzo delle proprie immagini, invertendo di fatto la precedente impostazione predefinita in cui le somiglianze erano disponibili a meno che non fossero escluse. OpenAI ha dichiarato di rammaricarsi per queste generazioni involontarie e ha rafforzato i suoi guardrail.

Perché è importante: una tendenza più ampia dei conflitti sul copyright dell’IA

La polemica con Sora evidenzia una questione critica: l’erosione del controllo sull’identità personale nell’era digitale. I modelli di intelligenza artificiale vengono addestrati su vasti set di dati, spesso includendo materiale protetto da copyright senza autorizzazione esplicita. Questa non è una nuova battaglia. OpenAI in precedenza aveva tentato di far rinunciare proattivamente le agenzie di talenti, una strategia che si scontrava con la legge sul copyright consolidata ed è stata rapidamente annullata.

Il caso va oltre le celebrità: la scorsa settimana, i deepfake di Martin Luther King Jr. hanno inondato la piattaforma, includendo contenuti razzisti e di sfruttamento. OpenAI ha messo in pausa la generazione di video con le sue sembianze dopo che sua figlia, Bernice A. King, ha pubblicamente chiesto la fine degli abusi.

“I personaggi pubblici e le loro famiglie dovrebbero in definitiva avere il controllo su come viene utilizzata la loro immagine”, ha affermato OpenAI, segnalando uno spostamento verso il rispetto dell’agire individuale.

Il panorama giuridico e la risposta di OpenAI

La situazione sottolinea la più ampia zona grigia giuridica che circonda i contenuti generati dall’intelligenza artificiale. La società madre di OpenAI, Ziff Davis, sta attualmente facendo causa a OpenAI per violazione del copyright, dimostrando che questa battaglia si estende oltre i diritti delle celebrità e comprende anche le organizzazioni dei media.

Sebbene gli attuali guardrail di OpenAI siano imperfetti (la piattaforma a volte consente ancora somiglianze non autorizzate), l’azienda sta ora collaborando attivamente con i detentori dei diritti e le agenzie di talento per mitigare i pericoli di appropriazione indebita di proprietà intellettuale.

L’incidente con Sora è un chiaro segnale che gli sviluppatori di intelligenza artificiale devono bilanciare l’innovazione con la responsabilità etica e legale. L’era della generazione incontrollata di deepfake sta volgendo al termine poiché le parti interessate richiedono un maggiore controllo sulle proprie identità digitali.

Exit mobile version