Perusahaan AI Memperkuat Perlindungan di Tengah Skandal Penyalahgunaan

17

OpenAI dan Google memperkuat perlindungan mereka terhadap citra yang dihasilkan oleh AI sebagai respons terhadap eksploitasi luas alat AI generatif, terutama termasuk skandal yang melibatkan Grok xAI milik Elon Musk. Insiden baru-baru ini menggarisbawahi kebutuhan mendesak akan langkah-langkah keamanan yang lebih kuat seiring dengan berkembangnya teknologi ini dengan pesat.

Skandal Grok dan Dampaknya

Pada awal tahun 2026, Grok, alat AI dari xAI, digunakan untuk membuat sekitar 3 juta gambar seksual dalam waktu 11 hari, termasuk sekitar 23.000 gambar yang berisi materi pelecehan seksual terhadap anak-anak (CSAM). Pelecehan massal ini diidentifikasi oleh Center for Countering Digital Hate (Pusat Penanggulangan Kebencian Digital) yang menyoroti betapa mudahnya AI generatif digunakan untuk tujuan jahat.

X (sebelumnya Twitter) menghentikan sementara kemampuan pengeditan gambar Grok di platformnya menyusul protes publik, meskipun fungsi tersebut tetap tersedia untuk pelanggan berbayar melalui aplikasi dan situs web mandiri. Insiden ini telah mendorong tindakan segera dari para pesaing, karena hal ini mengungkapkan betapa cepatnya AI dapat dieksploitasi untuk konten berbahaya.

Tanggapan OpenAI: Perbaikan Bug dan Kerja Sama Merah

OpenAI telah mengatasi kerentanan di ChatGPT yang memungkinkan pengguna melewati moderasi konten. Para peneliti di Mindgard mendemonstrasikan bagaimana “adversarial prompting”—membuat instruksi jahat—dapat mengelabui chatbot agar menghasilkan gambar eksplisit. OpenAI mengakui kelemahan tersebut pada awal bulan Februari dan menerapkan perbaikan dalam beberapa hari setelah diperingatkan oleh Mindgard, menyoroti pentingnya audit keamanan eksternal.

“Dengan asumsi pengguna yang termotivasi tidak akan mencoba mengabaikan pengamanan adalah kesalahan perhitungan strategis,” tulis Mindgard dalam postingan blognya.

Pendekatan ini, di mana peneliti eksternal dengan sengaja menguji kelemahan model AI, meniru serangan di dunia nyata dan memaksa pengembang untuk mengulangi langkah-langkah keamanan mereka.

Google Menyederhanakan Pelaporan Penyalahgunaan

Google telah menyederhanakan proses penghapusan gambar eksplisit dari Penelusuran. Pengguna kini dapat dengan mudah melaporkan gambar yang mereka anggap tidak konsensual atau kasar, memilih beberapa gambar sekaligus dan melacak laporan mereka. Perusahaan juga telah menegaskan kembali kebijakannya yang melarang penggunaan AI untuk aktivitas ilegal atau berbahaya, seperti menghasilkan gambar intim.

Meskipun undang-undang seperti Take It Down Act 2025 sudah ada, kelompok advokasi seperti National Center on Sexual Exploitation mendorong peraturan yang lebih komprehensif untuk melindungi korban.

Pertarungan Berkelanjutan demi Keamanan AI

Terlepas dari upaya-upaya ini, tidak ada solusi yang mudah untuk mencegah penyalahgunaan. Pengembang AI harus tetap waspada dan merespons dengan cepat ancaman yang muncul. Evolusi yang cepat dari teknologi ini menuntut pengujian, penyempurnaan, dan kolaborasi yang berkelanjutan antara perusahaan, peneliti, dan pembuat kebijakan.

Prinsip utamanya adalah keselamatan AI bukanlah perbaikan yang bisa dilakukan satu kali saja, melainkan sebuah proses yang berkelanjutan. Pengembang harus menerima persistensi dari pelaku kejahatan dan secara proaktif memperkuat perlindungan untuk melindungi pengguna.