L’industria tecnologica sostiene Anthropic nella situazione di stallo con il Pentagono sull’accesso all’intelligenza artificiale

18

Una crescente coalizione di dipendenti di Google e OpenAI sostiene pubblicamente il rifiuto di Anthropic di concedere al Dipartimento della Difesa degli Stati Uniti un accesso illimitato alla sua tecnologia di intelligenza artificiale. Oltre 300 lavoratori di Google e 60 dipendenti di OpenAI hanno firmato una lettera aperta esortando la leadership delle loro aziende a essere solidale con Anthropic.

La controversia principale: sorveglianza e armi autonome

La situazione di stallo è incentrata sulla richiesta del Pentagono di pieno accesso, alla quale Anthropic ha resistito a causa delle preoccupazioni sul potenziale uso improprio dell’intelligenza artificiale per la sorveglianza di massa interna e lo sviluppo di armi completamente autonome. Questo non è semplicemente un disaccordo commerciale; è uno scontro etico fondamentale su quanto potente dovrebbe essere utilizzata l’intelligenza artificiale.

I firmatari della lettera sostengono che il Pentagono sta tentando di mettere questi giganti della tecnologia uno contro l’altro attraverso la paura, sperando che uno ceda mentre gli altri rimangono in silenzio. La lettera invita esplicitamente i dirigenti di Google e OpenAI a sostenere le “linee rosse” di Anthropic contro queste controverse applicazioni.

Supporto interno e dichiarazioni pubbliche

Mentre le risposte formali da parte della leadership di Google e OpenAI rimangono in sospeso, le indicazioni suggeriscono una simpatia interna per la posizione di Anthropic. Il CEO di OpenAI Sam Altman ha dichiarato in un’intervista alla CNBC che non crede che il Pentagono dovrebbe utilizzare misure coercitive come il Defense Production Act (DPA) contro le aziende tecnologiche. Un portavoce di OpenAI ha inoltre confermato che la società è in linea con la posizione di Anthropic contro le armi autonome e la sorveglianza di massa.

Anche Jeff Dean, capo scienziato di Google DeepMind, ha espresso opposizione a X, affermando che la sorveglianza di massa viola il Quarto Emendamento e rischia un abuso politico.

Accesso militare esistente e minaccia della forza

L’esercito attualmente utilizza strumenti di intelligenza artificiale come Grok di X, Gemini di Google e ChatGPT di OpenAI per compiti non classificati. Sono in corso trattative per estendere l’accesso alle operazioni classificate. Tuttavia, Anthropic, nonostante abbia una partnership esistente con il Pentagono, ha tracciato una linea ferma contro l’utilizzo della sua intelligenza artificiale per la sorveglianza o per sistemi d’arma completamente autonomi.

Il segretario alla Difesa Pete Hegseth ha minacciato Anthropic di designarla come “rischio nella catena di fornitura” o di obbligarla a conformarsi tramite la DPA se la società non cede. Ciò segnala la volontà di utilizzare una leva significativa per garantire l’accesso a capacità di intelligenza artificiale all’avanguardia.

La situazione evidenzia la crescente tensione tra le considerazioni etiche del settore tecnologico e la richiesta da parte dei militari di strumenti avanzati. Non si tratta solo di un’azienda; è un banco di prova per capire come sarà governato lo sviluppo dell’intelligenza artificiale in futuro e se il progresso tecnologico darà priorità al profitto o ai vincoli etici.