OpenAI wzmacnia kontrolę nad Deepfakes po niezadowoleniu gwiazd

18

OpenAI wzmacnia środki bezpieczeństwa w swoim generatorze wideo wykorzystującym sztuczną inteligencję Sora, aby zapobiec nieuprawnionemu wykorzystywaniu podobizny gwiazd. Decyzja ta nastąpiła po tym, jak aktor Bryan Cranston i Actors Guild of America – Federacja Aktorów Telewizyjnych i Radiowych (SAG-AFTRA) wyrazili obawy dotyczące deepfake’ów dokonywanych bez ich zgody. Odzwierciedla to rosnące napięcie między twórcami sztucznej inteligencji a posiadaczami praw w erze generatywnej sztucznej inteligencji.

Problem z Sorą: niekontrolowana reprodukcja obrazu

Uruchomiona trzy tygodnie temu Sora umożliwia użytkownikom tworzenie realistycznych filmów na podstawie zapytań tekstowych. W przeciwieństwie do większości platform AI zapewnia łatwe odtwarzanie rozpoznawalnych twarzy i głosów. Doprowadziło to do gwałtownego wzrostu liczby deepfake’ów – niektórych nieszkodliwych, innych niepokojących, a jeszcze innych wręcz złośliwych. Możliwość umieszczania ludzi w sfabrykowanych scenariuszach bez pozwolenia aplikacji spowodowała bezpośrednią interwencję celebrytów i związków zawodowych.

Bryan Cranston osobiście powiadomił SAG-AFTRA, gdy jego wizerunek pojawił się w nieautoryzowanych filmach Sory. W wyniku porozumienia osiągniętego z OpenAI gwiazdy muszą wyraźnie wyrazić zgodę na wykorzystanie ich zdjęć, co skutecznie zmienia poprzednie ustawienia domyślne, w których obrazy były dostępne, chyba że zostały wykluczone. OpenAI stwierdziło, że ubolewa nad niezamierzonym pokoleniem i wzmocniło swoje środki ochrony.

Dlaczego to ma znaczenie: szersza tendencja konfliktów praw autorskich w sztucznej inteligencji

Kontrowersje wokół Sory uwydatniają kluczową kwestię: utratę kontroli nad tożsamością osobistą w epoce cyfrowej. Modele sztucznej inteligencji są szkolone na ogromnych zbiorach danych, często zawierających materiały chronione prawem autorskim, bez wyraźnej zgody. To nie jest nowa konfrontacja. OpenAI już wcześniej próbowało zmusić agencje talentów do aktywnej rezygnacji, co było strategią sprzeczną z obowiązującym prawem autorskim i szybko została unieważniona.

Problem wykracza poza celebrytów: w zeszłym tygodniu platformę zalały fałszywe podróbki Martina Luthera Kinga Jr., zawierające treści rasistowskie i wyzyskujące. OpenAI przestało generować filmy z nim po tym, jak jego córka, Bernice A. King, publicznie poprosiła o zaprzestanie stosowania przemocy.

„Osoby publiczne i ich rodziny powinny ostatecznie kontrolować sposób wykorzystania ich wizerunku” – stwierdziła OpenAI, sygnalizując zmianę w kierunku poszanowania osobistej autonomii.

Kontekst prawny i odpowiedź OpenAI

Sytuacja uwydatnia szeroką niepewność prawną dotyczącą treści generowanych przez sztuczną inteligencję. Spółka-matka OpenAI, Ziff Davis, pozywa obecnie OpenAI za naruszenie praw autorskich, pokazując, że ta walka wykracza poza prawa gwiazd i rozciąga się na organizacje medialne.

Chociaż obecne środki bezpieczeństwa OpenAI są niedoskonałe (platforma nadal czasami pozwala na nieupoważnione wykorzystanie obrazów), firma aktywnie współpracuje z posiadaczami praw i agencjami talentów, aby zminimalizować ryzyko niewłaściwego wykorzystania własności intelektualnej.

Incydent z Sorą jest wyraźnym sygnałem, że twórcy sztucznej inteligencji muszą zrównoważyć innowacje z odpowiedzialnością etyczną i prawną. Era niesprawdzonych deepfake’ów dobiega końca, ponieważ zainteresowane strony domagają się większej kontroli nad swoją tożsamością cyfrową.