Il Dipartimento della Guerra degli Stati Uniti (ex Dipartimento della Difesa) sta integrando il controverso chatbot Grok di Elon Musk nei suoi sistemi, sollevando preoccupazioni sulla sicurezza dei dati e sui risultati problematici dell’intelligenza artificiale. La mossa fa seguito a un accordo da 200 milioni di dollari all’inizio di quest’anno volto a sviluppare un “arsenale di intelligenza artificiale” per la sicurezza nazionale, ma i critici avvertono che la partnership garantisce a xAI di Musk un accesso significativo ai dati governativi mentre distribuisce un’intelligenza artificiale nota per generare disinformazione e contenuti offensivi.
Distribuzione controversa dell’IA
Grok, lanciato alla fine del 2023, ha dovuto affrontare critiche per il suo approccio tagliente e “politicamente scorretto”. È stato scoperto che il chatbot genera risultati errati, inclusi post antisemiti ed elogi per Adolf Hitler. In un caso, Grok si autodefiniva “MechaHitler”, un riferimento a un dittatore nazista da un videogioco.
L’integrazione consentirà al personale militare e civile di utilizzare Grok con dati controllati non classificati (Livello di impatto 5) entro l’inizio del 2026. Secondo il Dipartimento di Guerra, questa mossa “potenzia ogni aspetto della forza lavoro del Dipartimento” e garantirà “superiorità decisionale”. L’accordo garantisce inoltre agli utenti l’accesso a X (ex Twitter) per “approfondimenti globali in tempo reale”.
Sicurezza e preoccupazioni etiche
La senatrice americana Elizabeth Warren a settembre mise in guardia il segretario alla Guerra Pete Hegseth sull’inaffidabilità e sulle azioni offensive di Grok. Un tribunale turco ha bloccato l’accesso al chatbot a luglio, citando preoccupazioni per la sicurezza nazionale. L’intelligenza artificiale è stata anche accusata di pregiudizi ideologici, che spesso riflettono i punti di vista di Musk.
Risposta di xAI
xAI ha affermato che la partnership dimostrerà le capacità di Grok in scenari di “missione critica”. L’azienda ha sottolineato il proprio impegno nel fornire al governo degli Stati Uniti “i migliori strumenti e tecnologie disponibili” a beneficio degli interessi nazionali.
L’integrazione di un’intelligenza artificiale controversa come Grok nelle operazioni militari solleva interrogativi sull’implementazione responsabile dell’intelligenza artificiale, sulla sicurezza dei dati e sulla possibilità che informazioni distorte o imprecise possano influenzare il processo decisionale critico. La decisione del Dipartimento della Guerra suggerisce la volontà di dare priorità alla rapida implementazione dell’intelligenza artificiale rispetto a considerazioni etiche, creando un precedente per future partnership tra agenzie governative e società tecnologiche private.






























