La corsa per sfruttare l’intelligenza artificiale per la sicurezza informatica è entrata in una nuova fase ad alta posta in gioco. A seguito di un recente rilascio di Anthropic, OpenAI ha introdotto un modello specializzato progettato per rafforzare le difese digitali. Questo sviluppo evidenzia una crescente tensione nel settore tecnologico: la natura a duplice uso dell’intelligenza artificiale, che può fungere sia da sofisticato scudo per i difensori che da potente spada per gli aggressori.
La mossa strategica di OpenAI: GPT 5.4 Cyber
OpenAI ha lanciato ufficialmente GPT 5.4 Cyber, una variante specializzata del suo modello di punta. A differenza dei modelli di intelligenza artificiale standard, che spesso hanno rigide barriere per impedire la generazione di codice dannoso, questa versione è progettata con limiti più permissivi per casi d’uso legittimi e difensivi.
Le caratteristiche principali del nuovo modello includono:
– Funzionalità di sicurezza avanzate: il modello è attrezzato per gestire attività complesse come il reverse engineering binario. Ciò consente ai ricercatori di sicurezza di analizzare il software compilato per identificare malware e vulnerabilità anche quando il codice sorgente originale non è disponibile.
– Accesso controllato: per mitigare il rischio di uso improprio, OpenAI non rilascerà questo modello al pubblico in generale. Viene invece distribuito tramite il programma Trusted Access for Cyber, che ne limita la disponibilità a fornitori di sicurezza controllati, istituti di ricerca e organizzazioni affermate.
Il catalizzatore: i “miti” di Anthropic e il rischio di exploit zero-day
Il lancio di OpenAI segue da vicino il rilascio di Anthropic di Claude Mythos Preview. L’emergere di questi modelli sottolinea un cambiamento significativo nel panorama delle minacce: l’intelligenza artificiale sta diventando capace di scoprire vulnerabilità “zero-day”, difetti che sono sconosciuti agli stessi sviluppatori di software.
Il modello di Anthropic ha dimostrato capacità allarmanti, tra cui:
– Rilevamento automatico delle vulnerabilità: la capacità di identificare migliaia di difetti di elevata gravità nei principali sistemi operativi e browser Web.
– Concatenamento degli exploit: durante i test, il modello ha identificato con successo i difetti nel kernel Linux, il fondamento della maggior parte delle infrastrutture server globali, e li ha collegati insieme per creare exploit funzionali in grado di prendere il pieno controllo di un dispositivo.
A causa di questi rischi, Anthropic ha limitato l’accesso a un gruppo selezionato di 12 partner fondatori, tra cui giganti del settore come Amazon Web Services, Apple, Microsoft, Google e Cisco, nonché altre 40 organizzazioni di infrastrutture critiche. Questo fa parte del “Progetto Glasswing”, un’iniziativa volta a utilizzare l’intelligenza artificiale per rafforzare il software prima che gli autori malintenzionati possano sfruttarlo.
Perché è importante: il dilemma del difensore
La rapida evoluzione di questi modelli crea un “dilemma del difensore”. Man mano che l’intelligenza artificiale diventa più abile nel trovare e sfruttare i difetti del software, la finestra di tempo tra la scoperta di una vulnerabilità e il suo sfruttamento da parte degli hacker si sta restringendo.
Questa tendenza suggerisce diversi cambiamenti critici nel panorama della sicurezza informatica:
1. L’automazione della guerra: gli attacchi informatici si stanno allontanando dallo sforzo umano manuale verso campagne automatizzate e guidate dall’intelligenza artificiale che possono operare su una scala e una velocità precedentemente impossibili.
2. La necessità di un'”intelligenza artificiale difensiva”: Per contrastare le minacce guidate dall’intelligenza artificiale, i professionisti della sicurezza non possono più fare affidamento sui metodi tradizionali; richiedono strumenti di intelligenza artificiale in grado di eguagliare la velocità e la sofisticatezza dei loro avversari.
3. Il ruolo di custode delle Big Tech: La decisione di limitare questi modelli a partner “controllati” pone un’enorme responsabilità su una manciata di aziende nel decidere chi è sufficientemente “sicuro” da gestire una tecnologia così potente.
L’implementazione di modelli di IA specializzati segna una transizione dalla tradizionale sicurezza informatica a un’era di guerra digitale automatizzata e ad alta velocità in cui l’obiettivo principale è correggere le vulnerabilità più velocemente di quanto un’IA possa trovarle.
Conclusione
Il lancio di GPT 5.4 Cyber e Claude Mythos segnala che la prossima frontiera della sicurezza informatica sarà combattuta con un’intelligenza artificiale specializzata e ad alta capacità. Sebbene questi strumenti offrano un potenziale difensivo senza precedenti, rappresentano anche un significativo aumento del livello di sofisticazione dei potenziali attacchi informatici.





























