OpenAI Memperkenalkan Kontrol Orang Tua untuk ChatGPT Di Tengah Meningkatnya Masalah Keamanan

75

OpenAI menanggapi meningkatnya kekhawatiran tentang penggunaan chatbot-nya, ChatGPT, dengan mengumumkan rangkaian kontrol orang tua yang baru. Langkah ini dilakukan ketika perusahaan-perusahaan AI menghadapi peningkatan pengawasan atas dampak chatbot mereka terhadap pengguna, terutama individu yang lebih muda, dan menyusul tuntutan hukum kematian pertama yang diajukan perusahaan tersebut yang berasal dari bunuh diri seorang remaja California.

Alat Pengawasan Orang Tua yang Ditingkatkan

Fitur-fitur baru ini, yang dijadwalkan untuk dirilis dalam 120 hari ke depan bersamaan dengan inisiatif kesehatan mental yang lebih luas, bertujuan untuk memberikan kontrol lebih besar kepada orang tua atas interaksi remaja mereka dengan ChatGPT. Komponen utamanya meliputi:

  • Penautan Akun: Pengguna orang tua dan remaja akan dapat menautkan akun mereka, sehingga pengasuh dapat melihat penggunaan lebih baik.
  • Setelan Respons: Orang tua dapat menyesuaikan cara ChatGPT merespons perintah, menyelaraskan perilaku chatbot dengan setelan model yang “sesuai usia”.
  • Riwayat Obrolan dan Manajemen Memori: Pengasuh akan memiliki opsi untuk menonaktifkan riwayat obrolan dan memori, sehingga mengurangi kemampuan chatbot untuk mengingat percakapan sebelumnya.
  • Deteksi & Pemberitahuan Distress: Sebuah fitur baru sedang dalam pengembangan yang akan memberi tahu orang tua ketika ChatGPT mendeteksi potensi momen kesusahan akut. Fitur ini disempurnakan dengan masukan dari panel pakar OpenAI.

Mengatasi Percakapan Sensitif dan Keamanan

Selain kontrol orang tua, OpenAI juga meningkatkan kemampuan chatbot untuk menangani topik sensitif. Perusahaan berencana untuk memperluas Jaringan Dokter Globalnya dan menerapkan “router real-time.” Hal ini secara cerdas akan mengalihkan percakapan ke model penalaran yang lebih terspesialisasi, seperti pemikiran GPT-5, ketika topik sensitif muncul. Tujuannya adalah untuk memberikan tanggapan yang lebih bermanfaat dan bermanfaat, terlepas dari model awal yang dipilih.

Konteks Lebih Luas: Keamanan AI dan Kesehatan Mental Remaja

Langkah ini mencerminkan tren peningkatan pengawasan yang ditujukan terhadap perusahaan AI. Selama setahun terakhir, perusahaan-perusahaan ini mendapat kritik karena gagal mengatasi masalah keamanan dengan chatbot mereka, yang semakin sering digunakan sebagai teman emosional oleh pengguna yang lebih muda. Meskipun terdapat langkah-langkah keamanan, keterbatasan telah terungkap, karena sering kali kita dapat mengabaikan upaya perlindungan yang telah ditetapkan dan menimbulkan respons yang bermasalah.

Perdebatan Lebih Besar tentang Keamanan Anak Secara Online

Pengenalan kontrol orang tua mewakili respons standar perusahaan teknologi dan media sosial untuk mengatasi kekhawatiran mengenai dampaknya terhadap kesehatan mental remaja, paparan konten berbahaya, dan potensi perilaku predator online. Namun, para ahli mengingatkan bahwa fitur-fitur ini bergantung pada keterlibatan orang tua dan tidak mudah dilakukan. Solusi lain yang diusulkan, seperti pembatasan pasar aplikasi dan verifikasi usia online, masih kontroversial.

Meskipun kontrol orang tua dapat memberikan pengawasan pada tingkat tertentu, tanggung jawab pada akhirnya berada di tangan orang tua untuk secara aktif memantau dan membimbing interaksi online anak-anak mereka.

Respons Seluruh Industri terhadap Masalah Keselamatan

Tanggapan dari OpenAI mencerminkan pengumuman serupa dari perusahaan AI lainnya. Anthropic baru-baru ini memperbarui chatbotnya, Claude, untuk secara otomatis mengakhiri interaksi yang berpotensi membahayakan, termasuk interaksi yang melibatkan konten seksual yang melibatkan anak di bawah umur. Meta, yang menghadapi kritik publik, telah membatasi ketersediaan avatar AI-nya untuk pengguna remaja, membatasi jumlah chatbot, dan melatih mereka untuk menghindari topik seperti menyakiti diri sendiri dan interaksi romantis yang tidak pantas.

Penerapan perlindungan ini menunjukkan adanya pergeseran ke arah tanggung jawab yang lebih besar dalam industri AI seiring dengan upaya perusahaan untuk menyeimbangkan inovasi dengan keselamatan pengguna dan mengatasi dampak sosial yang lebih luas dari teknologi yang berkembang pesat. Upaya-upaya ini menandai langkah menuju pembangunan ekosistem AI yang lebih aman, dan mengakui pentingnya melindungi pengguna yang rentan.