OpenAI posiluje bezpečnostní opatření ve svém generátoru videa s umělou inteligencí Sora, aby zabránila neoprávněnému použití podobizen celebrit. Tento krok přichází poté, co herec Bryan Cranston a Actors Guild of America – Federace televizních a rozhlasových herců (SAG-AFTRA) vyjádřili obavy z nekonsensuálních deepfakes. To odráží rostoucí napětí mezi vývojáři AI a držiteli práv v éře generativní AI.
Problém se Sorou: Nekontrolovaná reprodukce obrazu
Sora, spuštěná před třemi týdny, umožňuje uživatelům vytvářet realistická videa na základě textových dotazů. Na rozdíl od většiny platforem AI poskytuje snadnou reprodukci rozpoznatelných tváří a hlasů. To vedlo k nárůstu deepfakes – některé neškodné, jiné znepokojivé a další přímo zlomyslné. Schopnost aplikace umístit lidi do vymyšlených scénářů bez povolení si vyžádala přímý zásah celebrit a odborů.
Bryan Cranston osobně informoval SAG-AFTRA, když se jeho obrázek objevil v neautorizovaných videích Sora. V důsledku dohody dosažené s OpenAI musí celebrity výslovně souhlasit s použitím svých obrázků, čímž se účinně změní předchozí výchozí nastavení, kde byly obrázky dostupné, pokud nebyly vyloučeny. Společnost OpenAI uvedla, že lituje této nezamýšlené generace a posílila svá ochranná opatření.
Proč na tom záleží: Širší trend konfliktů autorských práv v AI
Kontroverze kolem Sory poukazuje na kritický problém: ztrátu kontroly nad osobní identitou v digitálním věku. Modely umělé inteligence jsou trénovány na velkých souborech dat, často včetně materiálů chráněných autorskými právy bez výslovného povolení. Toto není nová konfrontace. OpenAI se již dříve pokoušelo přimět talentové agentury, aby se aktivně odhlásily, což byla strategie, která byla v rozporu se současným autorským zákonem a byla rychle zrušena.
Problém přesahuje celebrity: deepfakes Martina Luthera Kinga Jr., včetně rasistického a vykořisťovatelského obsahu, zaplavily platformu minulý týden. OpenAI přestala generovat jeho videa poté, co jeho dcera Bernice A. Kingová veřejně požádala o zastavení zneužívání.
„Veřejné osobnosti a jejich rodiny by měly v konečném důsledku kontrolovat, jak je jejich image využívána,“ řekl OpenAI a signalizoval posun směrem k respektování osobní autonomie.
Právní zázemí a odezva OpenAI
Situace zdůrazňuje širokou právní nejistotu týkající se obsahu generovaného umělou inteligencí. Mateřská společnost OpenAI, Ziff Davis, v současné době žaluje OpenAI za porušení autorských práv, čímž dokazuje, že tento boj přesahuje práva celebrit a vztahuje se i na mediální organizace.
Zatímco současná bezpečnostní opatření OpenAI jsou nedokonalá (platforma stále někdy umožňuje neoprávněné použití obrázků), společnost nyní aktivně spolupracuje s držiteli práv a talentovými agenturami na zmírnění rizik zneužití duševního vlastnictví.
Incident Sora je jasným signálem, že vývojáři AI potřebují vyvážit inovace s etickou a právní odpovědností. Éra nekontrolovaných deepfakes se chýlí ke konci, protože zúčastněné strany požadují větší kontrolu nad svými digitálními identitami.




























