I dipendenti di Google protestano contro il potenziale accordo del Pentagono sull’uso militare dell’intelligenza artificiale

8

Più di 600 dipendenti di Google hanno inviato una lettera aperta al CEO Sundar Pichai, esortando la società a rifiutare un potenziale contratto con il Dipartimento della Difesa degli Stati Uniti. Lo staff, inclusi direttori e vicepresidenti di alto rango di Google DeepMind e Google Cloud, sta lanciando allarmi sulla possibilità che l’Gemini AI di Google venga utilizzata in operazioni militari classificate.

Il conflitto principale: sicurezza vs flessibilità operativa

Al centro della controversia c’è un disaccordo sulla portata di come l’intelligenza artificiale può essere utilizzata. Secondo gli organizzatori della lettera, Google ha tentato di negoziare garanzie nei suoi contratti per impedire che la tecnologia venga utilizzata per le armi autonome o la sorveglianza di massa domestica.

Tuttavia, secondo quanto riferito, il Pentagono sta spingendo per un linguaggio molto più ampio, richiedendo che l’intelligenza artificiale sia disponibile per “tutti gli usi leciti.”

Per i dipendenti questa distinzione è fondamentale:
La prospettiva dei dipendenti: Sostengono che i “carichi di lavoro classificati” sono intrinsecamente opachi, rendendo impossibile monitorare se la tecnologia viene utilizzata per profilare individui o prendere di mira civili.
La prospettiva del Pentagono: Il Dipartimento della Difesa ricerca la “flessibilità operativa”, che consentirebbe loro di utilizzare gli strumenti secondo necessità senza barriere contrattuali restrittive.

Una tendenza crescente agli attriti etici nelle grandi tecnologie

Questa rivolta interna a Google non è un incidente isolato; riflette una spaccatura sempre più ampia tra il rapido progresso dell’intelligenza artificiale e i confini etici stabiliti dalle aziende che le creano. L’industria tecnologica si trova sempre più intrappolata tra i lucrosi contratti governativi e le posizioni morali della propria forza lavoro.

La situazione rispecchia un recente scontro di alto profilo che ha coinvolto Anthropic, un’altra delle principali startup di intelligenza artificiale. L’amministratore delegato di Anthropic, Dario Amodei, ha rifiutato di concedere al Pentagono un accesso illimitato ai propri sistemi, citando la preoccupazione che l’intelligenza artificiale possa essere utilizzata per minare i valori democratici o svolgere compiti che la tecnologia non è ancora abbastanza sicura da gestire. Questo rifiuto ha portato a uno scontro diretto con il governo degli Stati Uniti, che ha portato all’ordine del presidente Donald Trump di cessare l’uso del chatbot Claude di Anthropic da parte dei dipartimenti governativi.

Lezioni dal passato: l’ombra del progetto Maven

L’attuale protesta contro Google ha un peso storico significativo. Nel 2018, un’ondata simile di disordini tra i dipendenti ha costretto Google a ritirarsi dal Project Maven, un’iniziativa del Pentagono che utilizzava l’intelligenza artificiale per analizzare le riprese dei droni.

L’attuale gruppo di dipendenti chiede un cambiamento permanente nella politica aziendale e non solo il rifiuto di un singolo contratto. Le loro richieste includono:
1. L’annullamento formale di qualsiasi iniziativa somigliante a Project Maven.
2. La creazione e l’applicazione pubblica di una politica chiara che affermi che Google e i suoi appaltatori non costruiranno mai tecnologia bellica.

“Vogliamo che l’intelligenza artificiale avvantaggi l’umanità e non venga utilizzata in modi disumani o estremamente dannosi”, hanno affermato i dipendenti nella loro lettera.

Conclusione

Lo stallo di Google evidenzia una tensione fondamentale nell’era dell’intelligenza artificiale: mentre le agenzie militari e di intelligence cercano di integrare modelli avanzati nelle loro operazioni, gli ingegneri che costruiscono tali modelli chiedono sempre più trasparenza e limiti etici per prevenirne l’uso improprio.