Intelligenza artificiale, le contraddizioni USA sulle normative

Gli usa stanno attraversando uno degli scenari politici più farraginosi della loro storia, incertezza che ora si manifesta anche con gli effetti delle decisioni dell’amministrazione Trump per quanto riguarda le politiche economiche tanto care alla Silicon Valley. 

La novità di questa settimana è stata la bocciatura della moratoria federale che avrebbe impedito agli Stati Uniti di regolamentare l’intelligenza artificiale.

Negli ultimi anni la corsa sempre più frenetica all’innovazione digitale ha spinto numerosi stati americani verso la prospettiva di regolamentazioni autonome sull’intelligenza artificiale: la California, il Vermont e l’Illinois finora avevano già introdotto proposte di legge per disciplinarne l’uso. Parallelamente le big tech si erano mosse: percependolo come un impedimento all’innovazione, avevano fatto una richiesta formalizzata dalla Incompas, l’organizzazione che rappresenta molti di questi colossi tecnologici: istituire un blocco normativo statale IA USA per dieci anni. L’obiettivo volgeva a impedire che i singoli Stati potessero adottare, nel prossimo decennio, regolamenti sull’IA differenti o più stringenti rispetto a quelli federali. L’iniziativa a livello di investimenti aveva certamente un suo perché: la frammentazione legislativa avrebbe sicuramente impattato la crescita di alcune aziende tech e investimenti nei diversi Stati.

L’associazione finora ha investito risorse significative per promuovere la proposta di moratoria IA USA presso i membri del Senato, dopo aver ottenuto l’approvazione della Camera dei rappresentanti. Il passaggio della proposta alla Camera dei rappresentanti, approvata a larga maggioranza, aveva segnato un primo punto di svolta per la Silicon Valley.

Ma ora il Senato degli Stati Uniti ha approvato il One Big Beautiful Bill Act, la riforma di bilancio dell’amministrazione Trump. Approvata senza una delle sue misure più discusse: proprio la moratoria decennale che avrebbe impedito ai singoli Stati di introdurre nuove leggi per regolamentare l’uso dell’IA, è stata bocciata dal Senato con 99 voti contrari e uno solo a favore.

Originariamente prevista per dieci anni, poi ridotta a cinque, la moratoria avrebbe bloccato l’applicazione di norme esistenti e future sui sistemi IA, incluse quelle contro i deepfake, spesso usati per disinformazione politica o pornografia non consensuale.

È stato l’emendamento della senatrice repubblicana del Tennessee, Marsha Blackburn, a infliggere la sconfitta alla Silicon Valley, tronfia per gli investimenti in lobbying. Ma la moratoria non avrebbe solo reso inapplicabili tutte queste protezioni per anni. Avrebbe potuto bloccare l’uso delle leggi sui diritti civili che al momento già vietano la discriminazione algoritmica, che si ha quando i computer penalizzano ingiustamente certi gruppi di persone per razza, genere o reddito. E avrebbe cancellato le leggi sulla privacy dei consumatori.

Sempre in questo scenario americano, nello stesso periodo, il senato ha approvato il Raise Act, un provvedimento dello stato di New York per impedire che i modelli di IA più avanzati, come quelli sviluppati dalle big tech, contribuiscano a scenari disastrosi che potrebbero causare oltre 100 morti o danni superiori a un miliardo di dollari.

In sostanza, il provvedimento obbliga chi sviluppa i cosiddetti frontier AI model (i modelli più potenti, tipo GPT-4 e successori) a dimostrare che il loro rilascio pubblico non comporti rischi catastrofici. Con tale normativa qualsiasi modello IA che potrebbe essere usato, per esempio, per progettare armi chimiche, sabotare infrastrutture critiche, manipolare in massa l’informazione, o destabilizzare sistemi finanziari, dovrà essere trattato come una tecnologia ad alto rischio, con audit, report obbligatori e responsabilità precise.

Queste vicende sembrano rompere tutta la propaganda del main stream nostrano che finora vedevano l’Europa essere il regolamentatore e non l’Innovatore. L’UE è stata la prima al mondo ad adottare una normativa nei riguardi dell’Intelligenza artificiale. Oggi i fatti statunitensi hanno ribaltato tali considerazioni.

Bisogna però fare attenzione: se è vero che l’UE è stato il primo organismo politico a legiferare sull’intelligenza artificiale, ultimamente starebbe facendo dei passi a singhiozzo. Prima con la bussola per la competitività promossa da Von der Leyen che punta forte sugli investimenti in intelligenza artificiale, poi con il Rearm Europe e il concetto di dual use (tutti i beni e le infrastrutture a uso civile che possono essere convertite a uso non civile): alcune aziende che un tempo decantavano i benefici ecologici del loro lavoro, ora si starebbero orientando verso la difesa e l’intelligenza artificiale. Ecco infatti uscire parallelamente al Rearm Ue il dual use. Lo avevamo approfondito in questo articolo.

Eppure, proprio quell’IA europea che potrebbe essere rifinanziata grazie agli ingenti investimenti del Rearm Eu, ora sembra fare un passo indietro. La Commissione europea, infatti, non è stata semplicemente a guardare il Raise Act newyorkese: subito dopo l’approvazione, ha avviato una consultazione pubblica per raccogliere feedback sulla regolamentazione dei sistemi di intelligenza artificiale ad alto rischio. Similmente al Raise Act, tale consultazione si concentra su due categorie di sistemi: quelli rilevanti per la sicurezza dei prodotti secondo la legislazione armonizzata dell’UE, e quelli che potrebbero avere impatti significativi sulla salute, sicurezza o diritti fondamentali delle persone. La consultazione durerà sei settimane, fino al 18 luglio 2025, e potrebbe provocare possibili ritardi nell’implementazione di alcune disposizioni dell’AI Act. Insomma, la politica europea e americana in ambito IA sembrano avere analogie molto simili nei loro iter legislativi.

Ora che la moratoria USA è saltata, gli Stati federali avranno libertà di legiferare specialmente sulle questioni di sicurezza online, diritti d’immagine e tutela dei minori. Lo stesso però potremmo vederlo anche in Europa, con il ricepimento dell’AI Act da parte dei singoli Stati membri. L’Italia sarà pure il primo Stato europeo ad aver recepito l’AI Act, entrato oramai in vigore da un anno, con l’approvazione del Senato in prima lettura del DDL 1146/24 lo scorso marzo, ma va ricordato che all’inizio la stessa Commissione europea, esaminando proprio il DDL italiano, aveva evidenziato disallineamenti con l’AI Act, quali definizioni divergenti, restrizioni sui sistemi a rischio non elevato e rischi di sovrapposizione normativa. Dunque, il rischio è che si sviluppi una vera e propria frammentazione normativa eccessiva. (foto di Steve Johnson su Unsplash)

© RIPRODUZIONE RISERVATA

    Iscriviti alla newsletter