Lebih dari 600 karyawan Google telah mengeluarkan surat terbuka kepada CEO Sundar Pichai, mendesak perusahaan tersebut untuk menolak kemungkinan kontrak dengan Departemen Pertahanan AS. Staf—termasuk direktur tinggi dan wakil presiden dari Google DeepMind dan Google Cloud—meningkatkan kekhawatiran atas kemungkinan Gemini AI Google digunakan dalam operasi militer rahasia.
Konflik Inti: Keselamatan vs. Fleksibilitas Operasional
Inti dari perselisihan ini adalah ketidaksepakatan mengenai ruang lingkup penerapan AI. Menurut penyelenggara surat tersebut, Google telah berupaya untuk menegosiasikan perlindungan dalam kontraknya untuk mencegah teknologi tersebut digunakan untuk senjata otonom atau pengawasan massal dalam negeri.
Namun, Pentagon dilaporkan mendorong bahasa yang lebih luas, meminta agar AI tersedia untuk “semua penggunaan yang sah.”
Bagi karyawan, pembedaan ini sangat penting:
– Perspektif Karyawan: Mereka berpendapat bahwa “beban kerja yang diklasifikasikan” pada dasarnya tidak jelas, sehingga tidak mungkin untuk memantau apakah teknologi tersebut digunakan untuk membuat profil individu atau menargetkan warga sipil.
– Perspektif Pentagon: Departemen Pertahanan mengupayakan “fleksibilitas operasional”, yang memungkinkan mereka menggunakan peralatan sesuai kebutuhan tanpa hambatan kontrak yang membatasi.
Tren Gesekan Etis yang Berkembang di Teknologi Besar
Pemberontakan internal di Google ini bukanlah sebuah insiden tunggal; hal ini mencerminkan kesenjangan yang semakin besar antara kemajuan pesat AI dan batasan etika yang ditetapkan oleh perusahaan yang menciptakannya. Industri teknologi semakin terjebak antara kontrak pemerintah yang menguntungkan dan sikap moral tenaga kerja mereka sendiri.
Situasi ini mencerminkan bentrokan besar baru-baru ini yang melibatkan Anthropic, startup AI terkemuka lainnya. CEO Anthropic Dario Amodei menolak memberikan Pentagon akses tidak terbatas ke sistem mereka, dengan alasan kekhawatiran bahwa AI dapat digunakan untuk melemahkan nilai-nilai demokrasi atau melakukan tugas-tugas yang teknologinya belum cukup aman untuk ditangani. Penolakan ini menyebabkan konfrontasi langsung dengan pemerintah AS, yang mengakibatkan perintah dari Presiden Donald Trump untuk menghentikan penggunaan chatbot Claude Anthropic oleh departemen pemerintah.
Pelajaran dari Masa Lalu: Bayangan Project Maven
Protes terhadap Google saat ini mempunyai dampak historis yang signifikan. Pada tahun 2018, gelombang keresahan karyawan yang serupa memaksa Google untuk menarik diri dari Project Maven, sebuah inisiatif Pentagon yang menggunakan AI untuk menganalisis rekaman drone.
Kelompok karyawan saat ini menyerukan perubahan permanen dalam kebijakan perusahaan, bukan hanya penolakan terhadap satu kontrak saja. Tuntutan mereka antara lain:
1. Pembatalan formal atas segala inisiatif yang menyerupai Proyek Maven.
2. Pembuatan dan penegakan kebijakan yang jelas kepada publik yang menyatakan bahwa Google dan kontraktornya tidak akan pernah membuat teknologi peperangan.
“Kami ingin melihat AI bermanfaat bagi umat manusia, bukan digunakan dengan cara yang tidak manusiawi atau sangat merugikan,” kata para karyawan tersebut dalam surat mereka.
Kesimpulan
Kebuntuan di Google menyoroti ketegangan mendasar di era AI: ketika badan militer dan intelijen berupaya mengintegrasikan model-model canggih ke dalam operasi mereka, para insinyur yang membangun model-model tersebut semakin menuntut transparansi dan batasan etika untuk mencegah penyalahgunaan.





























