OpenAI Memperketat Kontrol Deepfake Setelah Reaksi Selebriti

15

OpenAI memperkuat perlindungan pada generator video AI-nya, Sora, untuk mencegah penggunaan gambar selebriti yang tidak sah. Langkah ini dilakukan setelah aktor Bryan Cranston dan Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA) menyampaikan kekhawatiran tentang deepfake yang dibuat tanpa persetujuan. Hal ini mencerminkan meningkatnya ketegangan antara pengembang AI dan pemegang hak atas kekayaan intelektual di era AI generatif.

Masalah Sora: Replikasi Kemiripan yang Tidak Terkendali

Sora, diluncurkan tiga minggu lalu, memungkinkan pengguna menghasilkan video realistis dari perintah teks. Tidak seperti kebanyakan platform AI, platform ini memfasilitasi replikasi wajah dan suara yang dapat dikenali dengan mudah. Hal ini menyebabkan lonjakan deepfake – ada yang tidak berbahaya, ada yang mengganggu, dan ada yang benar-benar berbahaya. Kemampuan aplikasi untuk menempatkan individu ke dalam skenario yang dibuat-buat tanpa izin mendorong tindakan langsung dari selebriti dan serikat pekerja.

Bryan Cranston secara pribadi memberi tahu SAG-AFTRA ketika kemiripannya muncul di video Sora yang tidak sah. Perjanjian yang dihasilkan dengan OpenAI mengharuskan selebritas untuk secara eksplisit memilih untuk ikut serta agar gambar mereka digunakan, secara efektif membalikkan pengaturan default sebelumnya di mana kemiripan tersedia kecuali dikecualikan. OpenAI telah menyatakan bahwa mereka menyesali generasi yang tidak disengaja ini dan telah memperkuat pagar pembatasnya.

Mengapa Ini Penting: Tren Konflik Hak Cipta AI yang Lebih Luas

Kontroversi dengan Sora menyoroti masalah kritis: terkikisnya kendali atas identitas pribadi di era digital. Model AI dilatih pada kumpulan data yang sangat besar, sering kali mencakup materi berhak cipta tanpa izin eksplisit. Ini bukanlah pertarungan baru. OpenAI sebelumnya berupaya agar agensi bakat secara proaktif memilih untuk tidak ikut serta, sebuah strategi yang bertentangan dengan undang-undang hak cipta yang ada dan dengan cepat dibatalkan.

Kasus ini tidak hanya terjadi pada selebriti: minggu lalu, deepfake Martin Luther King Jr. membanjiri platform tersebut, termasuk konten rasis dan eksploitatif. OpenAI menghentikan pembuatan video yang menampilkan kemiripannya setelah putrinya, Bernice A. King, secara terbuka memohon agar pelecehan tersebut dihentikan.

“Tokoh masyarakat dan keluarga mereka pada akhirnya harus memiliki kendali atas bagaimana kemiripan mereka digunakan,” kata OpenAI, yang menandakan adanya pergeseran menuju penghormatan terhadap agensi individu.

Lanskap Hukum dan Respons OpenAI

Situasi ini menggarisbawahi wilayah abu-abu hukum yang lebih luas seputar konten yang dihasilkan oleh AI. Perusahaan induk OpenAI, Ziff Davis, saat ini menggugat OpenAI atas pelanggaran hak cipta, yang menunjukkan bahwa perjuangan ini tidak hanya mencakup hak selebriti, namun juga mencakup organisasi media.

Meskipun batasan OpenAI saat ini tidak sempurna (platform terkadang masih mengizinkan kemiripan yang tidak sah), perusahaan tersebut kini secara aktif terlibat dengan pemegang hak dan agensi bakat untuk mengurangi bahaya penyalahgunaan kekayaan intelektual.

Insiden dengan Sora merupakan sinyal jelas bahwa pengembang AI harus menyeimbangkan inovasi dengan tanggung jawab etika dan hukum. Era generasi deepfake yang tidak terkendali akan segera berakhir karena para pemangku kepentingan menuntut kontrol yang lebih besar atas identitas digital mereka.