L’UE ritarda l’attuazione completa della legge sull’intelligenza artificiale fino al 2027, accendendo il dibattito

12

La Commissione europea ha proposto di ritardare la piena applicazione della sua storica legge sull’intelligenza artificiale (AI) fino al dicembre 2027, respingendo di oltre un anno le normative critiche sui sistemi di intelligenza artificiale ad alto rischio. Questa mossa, presentata come parte del “Digital Omnibus” – uno sforzo più ampio per semplificare le leggi digitali dell’UE – ha acceso polemiche, contrapponendo i lobbisti del settore ai difensori dei consumatori e sollevando preoccupazioni sul ritmo della supervisione dell’IA in Europa.

Perché il ritardo?

La Commissione attribuisce il rinvio alla lentezza dell’attuazione da parte degli Stati membri e alla necessità per le imprese di adattarsi alle nuove e complesse norme. Nello specifico, le disposizioni riguardanti le tecnologie IA “ad alto rischio” – quelle utilizzate nei processi decisionali critici come richieste di prestiti, assunzioni e valutazioni educative – non saranno pienamente applicate fino alla fine del 2027.

Questo ritardo è significativo perché significa che i modelli di intelligenza artificiale continueranno a funzionare con meno restrizioni per un periodo prolungato. In pratica, ciò significa che le aziende possono ancora sfruttare dati precedentemente limitati per prendere decisioni consequenziali sull’accesso dei singoli ai servizi finanziari, all’assistenza sanitaria e alle opportunità di lavoro.

Risposte dell’industria e dei sostenitori

L’industria tecnologica ha ampiamente accolto con favore il ritardo, con gruppi come la CCIA (che rappresenta Amazon, Apple, Google e Uber) che chiedono una flessibilità ancora maggiore. Sostengono che le attuali normative sono eccessivamente onerose e ostacolano l’innovazione. Tuttavia, i critici sostengono che si tratti di un palese caso di deregolamentazione che avvantaggia la grande tecnologia a scapito della protezione dei consumatori.

Peter Norwood di Finance Watch sostiene che si tratta di una strategia di “deregolamentazione per accelerare” che danneggerà i consumatori. Avverte che gli individui potrebbero dover affrontare rifiuti distorti guidati dall’intelligenza artificiale per prestiti o premi assicurativi discriminatori senza trasparenza o ricorso.

Anche le organizzazioni dei consumatori come il BEUC criticano la mossa, affermando che invece di semplificare le regole, la Commissione sta essenzialmente dando priorità agli interessi dell’industria rispetto ai diritti dei cittadini.

Sfide di implementazione e ostacoli politici

Il ritardo è in parte radicato in realtà logistiche: molti Stati membri dell’UE non hanno rispettato la scadenza del 2025 per istituire le autorità nazionali necessarie per far rispettare la legge sull’AI. Senza queste strutture, i valutatori indipendenti della conformità non possono essere certificati e il sistema non può funzionare in modo efficace.

Il percorso da seguire non è garantito. L’attuazione dell’Omnibus richiederà la modifica del Regolamento generale sulla protezione dei dati (GDPR), una mossa che dovrebbe incontrare resistenza da parte dei deputati di tutto lo spettro politico. Alcuni legislatori sostengono che le leggi recentemente discusse e adottate non dovrebbero essere modificate così rapidamente, soprattutto prima della loro completa attuazione.

Il quadro più ampio

L’AI Act dell’UE aveva lo scopo di stabilire uno standard globale per lo sviluppo responsabile dell’IA. Tuttavia, il ritardo solleva interrogativi sull’impegno dell’Europa nel far rispettare tali standard. Più a lungo i sistemi di intelligenza artificiale ad alto rischio operano con normative più flessibili, maggiore è il potenziale di danno, sia attraverso algoritmi distorti, violazioni della privacy o risultati economici ingiusti.

La decisione della Commissione sottolinea una tensione più ampia tra innovazione e regolamentazione nell’era dell’IA. Trovare un equilibrio tra queste priorità concorrenti sarà una sfida determinante per i politici negli anni a venire.

Il ritardo proposto non è semplicemente un adeguamento tecnico; è una pausa strategica che rimodella il panorama della governance dell’IA in Europa. I prossimi mesi determineranno se questa pausa porterà a una supervisione più efficace o a un’ulteriore erosione delle tutele dei consumatori.