I Paesi UE tutti d’accordo sul testo dell’AI Act

Nel corso della riunione che si è svolta il 2 febbraio 2024, il Consiglio dei rappresentanti permanenti (Coreper) degli Stati ha votato all’unanimità l’AI Act, il primo regolamento mondiale sull’IA, approvando l’accordo politico raggiunto a dicembre. A dicembre scorso era stato raggiunto un accordo politico provvisorio dai co-legislatori (Parlamento, Consiglio e Commissione UE) sul disegno di legge. Ecco che la laboriosità della materia, per i diversi motivi legati alla possibilità di generare danni, essendo l’IA una tecnologia non ancora del tutto affidabile e quindi rischiosa per diversi contesti (sociali, economici, politici e culturali) aveva generato diverse critiche e scetticismi in alcuni Paesi UE proprio per alcuni punti normativi considerati troppo rigidi. E a gennaio la presentazione della versione finale della normativa aveva scaturito diverse riserve e irrigidimenti in Francia, Italia e Germania, che volevano ridiscutere le misure riguardanti l’uso dell’IA generativa, a fronte di un regime normativo più leggero rispetto al testo proposto sino a quel momento: spingevano quindi su codici di condotta senza un regime sanzionatorio iniziale per i foundation model – sistemi di IA che utilizzano innumerevoli dati per fornire risultati adattati anche a specifiche attività (esempio GPT4) -, piuttosto che obblighi prescrittivi previsti nel regolamento sull’intelligenza artificiale. Ciò per tutelare le promettenti startup europee (es. la francese Mistral AI e la tedesca Aleph Alpha) che potrebbero essere potenziali competitor delle aziende americane. Invece il Parlamento europeo si è dimostrato unito proprio nel chiedere regole severe per questi modelli, ritenendo inaccettabile escludere dal regolamento le tipologie più potenti di IA e lasciando tutto l’onere normativo sugli attori più piccoli. Si sono poi susseguite diverse fasi negoziali durante tutto il mese che a inizio settimana hanno ribaltato la situazione, portando la Germania a sostenere il testo, seguita poi anche dall’Italia, unico Paese dei tre a non avere (ancora) una startup già identificate come leader nel settore dell’IA, che ha deciso di non opporsi, forse proprio in visione del prossimo G7 a Roma, dove l’IA sarà uno dei temi principali. Infine, il 2 febbraio anche la Francia ha deciso di accettare il testo. Ora tutti i 27 gli Stati membri hanno approvato all’unanimità l’accordo politico di dicembre, riconoscendo l’equilibrio raggiunto dai negoziatori tra innovazione e sicurezza. Il testo integrale dovrà passare poi ai voti di Consiglio e Parlamento. La sua approvazione finale è prevista per il 24 aprile 2024.

Regulatory sandbox per favorire lo sviluppo tecnologico

Tra le misure a sostegno delle PMI e startup innovative il testo attuale prevede e promuove per il periodo transitorio che precede l’applicazione generale, il Patto sull’IA, rivolto a tutti gli sviluppatori di IA a livello globale, che a titolo volontario si vorranno impegnare ad attuare gli obblighi della normativa prima della sua applicazione. Inoltre verranno lanciati i cosiddetti regulatory sandbox istituiti dalle autorità nazionali per sviluppare e formare un’intelligenza artificiale innovativa prima del collocamento sul mercato: ovvero ambienti di test esenti da regole (un po’ il modello che aveva anticipato Ian Hogarth, attuale chair della AI Foundation Model Taskforce del governo britannico che è descritto in questo articolo, ndr). Questo perché il mancato rispetto delle norme previste dal testo porterebbe a sanzioni che vanno da 35 milioni di euro o il 7% del fatturato globale, a 7,5 milioni o l’1,5 % del fatturato, in base al tipo di violazione e dimensione dell’azienda che vi incorre. Per Alessio Butti, sottosegretario alla presidenza del Consiglio con delega all’Innovazione tecnologica, “l’iter che ha portato all’approvazione dell’AI Act è stato complesso e ha richiesto una negoziazione serrata tra gli Stati membri. L’Italia ha sempre sottolineato la necessità di un approccio strutturato che prevedesse norme chiare e sanzioni per le violazioni e non semplici codici di autocondotta. Grazie alla nostra diplomazia e alla capacità di dialogo con gli altri Paesi membri, in particolare con Francia e Germania, siamo riusciti a superare le divergenze, mantenendo una linea coerente con la posizione espressa fin dall’inizio. Durante le trattative del trilogo, che hanno coinvolto la Commissione, il Consiglio e il Parlamento, abbiamo lavorato intensamente per costruire un consenso attorno a una posizione che salvaguardasse gli interessi di sicurezza, ordine pubblico e le prerogative delle forze dell’ordine, come ribadito il 15 dicembre 2023 alla vigilia del trilogo. Questa posizione ha trovato pieno sostegno all’interno del governo, confermando l’impegno dell’Italia a favore di un’IA responsabile e sicura”. (Foto di Antoine Schibler su Unsplash )

© RIPRODUZIONE RISERVATA

Entra nella community

Iscriviti alla newsletter