Deep tech

Allarme, l’intelligenza artificiale come la guerra nucleare

Fioriscono le iniziative e le preoccupazioni sull’intelligenza artificiale. A San Francisco nasce la nonprofit CAIS – Center for AI Safety, missione: ridurre i rischi su scala sociale dell’AI. A firmare la prima dichiarazione anche Bill Gates e Sam Altam

Pubblicato il 19 Giu 2023

Mentre in Francia, Macron ha lanciato al VivaTech di Parigi il guanto di sfida sull’intelligenza artificiale alla Silicon Valley e alla Cina, e a Bruxelles si porta avanti il progetto normativo per ‘educare’ l’intelligenza artificiale, continua la eco dell’allarme lanciato a San Francisco dal neonato CAIS – Center for AI Safety, la cui missione è ‘ridurre i rischi su scala sociale dell’Intelligenza Artificiale’.

Dallo scorso 30 maggio 2023, il CAIS ha reso pubblica una dichiarazione firmata già da 350 esperti e professori universitari specializzati nelle più diverse materie che abbiano un minimo a che fare con lo sviluppo dell’inteligenza aritificiale, come etica, filosofia, legge, fisica, medicina, ingegneria, antropologia, matematica, informazione, climatologia, legge.

Ma soprattutto a firmarla ci sono personaggi come Bill Gates (fondatore Microsoft) e Sam Altman (fondatore di OpenAI), Ray Kurzweil (AI Visionary, Google) e Vitalik Buterin (fondatore di Ethereum), Adam d’Angelo (Quora e OpenAi) e Chris Anderson (fondatore TED), per citarne una manciata, ma ci sono molti altri imprenditori, la crema dello startup system della Valle. Difficile a dirsi, per quale ragione ognuno di loro supporti questa nonprofit, il CAIS,  in alcuni casi sembra esserci dietro una ragione di opportunità piuttosto che di ‘autocensura’.
‘Se non puoi battere il tuo nemico, fattelo amico’ dice una massima attribuita a Giulio Cesare. Applicato al caso: se si dovranno fare delle regole per lo sviluppo dell’AI, e si faranno, meglio stare dalla parte di chi le fa e non di chi le subisce.

La missione del CAIS

“Mitigare il rischio di estinzione causato dall’IA dovrebbe essere una priorità globale, insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”.

Questa è la dichiarazione che è stata sottoscritta: fa paura, ma è talmente generica che per il momento non vuol dire nulla, tutti possono essere d’accordo.
Ho chiesto a ChatGPT – come non farlo in questa occasione? – cosa significa questa frase, ha risposto:
Questa frase suggerisce che mitigare il rischio di estinzione causato dall’intelligenza artificiale (IA) dovrebbe essere considerato una priorità globale. L’IA può riferirsi allo sviluppo di sistemi o tecnologie che hanno la capacità di apprendere e agire in modo autonomo, e l’estinzione causata dall’IA potrebbe riferirsi al potenziale scenario in cui l’IA sviluppa una superiorità talmente avanzata da minacciare l’esistenza dell’umanità.

La frase sottolinea che mitigare questo rischio dovrebbe essere considerato altrettanto importante di altri rischi su scala sociale come le pandemie (epidemie su vasta scala che colpiscono l’umanità) e la guerra nucleare (un conflitto armato che coinvolge armi nucleari). In altre parole, sta suggerendo che la potenziale minaccia dell’IA sulla sopravvivenza dell’umanità dovrebbe essere affrontata con la stessa serietà e impegno delle altre minacce globali.

È importante notare che questa è un’opinione espressa nella frase e le opinioni sulla priorità e l’importanza dei rischi possono variare da persona a persona. Tuttavia, la frase mette in luce l’idea che il rischio di estinzione dovuto all’IA è un problema che richiede attenzione e considerazione’.

Certo, il messaggio nella sua semplicità è immediato, importante, solleva il livello di attenzione di parecchio. Peccato che come la storia anche contemporanea ci insegna, su nucleare e pandemie, non è che siamo riusciti proprio a metterci in sicurezza o a lavorare all’unisono come ‘mondo’. Anzi.

Al lavoro sul tema ci sono parecchie persone, lo stesso Elon Musk a inizio anno, aveva firmato una lettera insieme ad altre mille persone in cui si chiedeva una pausa di sei mesi sullo sviluppo dell’IA, sostenendo che essa comporta “rischi profondi per la società e l’umanità”. Ma sta anche lavorando senza sosta alla sua ThuthGPT (oltre a essere socio di OpenAi).

Cosa dobbiamo aspettarsi che avvenga per l’Intelligenza Artificiale? Come possiamo mitigare i rischi connessi con l’intelligenza artificiale?

A domanda, ChatGPT è in grado fornire qualche indicazione.

Mitigare il rischio associato all’intelligenza artificiale (IA) richiede un approccio multifattoriale e coinvolge diverse strategie e iniziative. Ecco alcuni modi in cui il rischio dell’IA può essere mitigato:

1. Ricerca sulla sicurezza dell’IA: È fondamentale condurre ricerche approfondite per comprendere le implicazioni a lungo termine dell’IA e sviluppare metodi per garantire la sua sicurezza. Ciò può includere l’identificazione e la mitigazione di possibili vulnerabilità, la creazione di standard di sicurezza e la promozione della collaborazione tra gli esperti di IA.

2. Governance e regolamentazione: È necessario stabilire regole, norme e leggi che guidino lo sviluppo e l’uso responsabile dell’IA. Questo può includere l’elaborazione di politiche di governance, l’implementazione di meccanismi di controllo e revisione, e l’adozione di regolamentazioni che promuovano la sicurezza, l’equità e l’accountability nell’uso dell’IA.

3. Collaborazione internazionale: Dato che la sfida dell’IA è globale, la collaborazione internazionale è fondamentale. Gli sforzi congiunti tra i paesi possono consentire lo scambio di conoscenze, l’armonizzazione delle norme e delle best practice, nonché la definizione di standard globali per la sicurezza dell’IA.

4. Valutazione dell’impatto: È importante valutare l’impatto a lungo termine dell’IA sulla società, l’economia e l’umanità nel suo complesso. Ciò può comportare la valutazione degli effetti sociali, etici ed economici dell’IA e l’adozione di politiche che minimizzino gli impatti negativi e massimizzino i benefici.

5. Formazione ed educazione: Investire nell’istruzione e nella formazione riguardo all’IA è cruciale per garantire una comprensione diffusa dei suoi benefici, dei rischi associati e delle migliori pratiche. Ciò può aiutare a creare una società informata e consapevole in grado di utilizzare l’IA in modo responsabile.

6. Responsabilità aziendale: Le aziende che sviluppano e utilizzano l’IA devono adottare una responsabilità sociale e etica. Ciò implica l’implementazione di politiche interne per garantire la sicurezza, l’equità e la trasparenza nell’uso dell’IA, nonché il coinvolgimento delle parti interessate nella definizione delle linee guida etiche.

7. Monitoraggio e sorveglianza: È importante monitorare attentamente lo sviluppo e l’uso dell’IA per identificare tempestivamente possibili rischi e prevenire abusi. Ciò può coinvolgere il monitoraggio delle applicazioni dell’IA, la raccolta di dati sull’impatto sociale e l’implementazione di meccanismi di controllo per garantire un utilizzo sicuro e responsabile.

Sembrerebbe una strada percorribile, tranne che per i punti 2, 3 e 6, particolarmente spinosi.
Il CAIS sottolinea come sia necessario agire rapidamente, ma il compito è monumentale poiché l’intelligenza artificiale rappresenta un potente strumento di supremazia. Recentemente, gli stessi fondatori di OpenAI hanno condiviso le loro preoccupazioni in un blog post, in cui affermano che nei prossimi dieci anni i sistemi di intelligenza artificiale potrebbero superare il livello di competenza degli esperti nella maggior parte dei settori e svolgere attività produttive comparabili a quelle di grandi aziende attuali.

‘Cosa faranno le persone se non dovranno più lavorare?’ (cit. Elon Musk)

Il più inquietante rischio dell’AI: la singolarità tecnologica

I rischi che si corrono, al di là del tema lavoro, sembrano uscire da un film di fantascienza. C’è un giovane ricercatore e professore universitario di Berkley, Dan Hendrycks, che ha addirittura ipotizzato che l’evoluzione dell’IA, senza un adeguato sistema di regole che faccia da freno, possa seguire la logica darwiniana di selezione della specie, mettendo a rischio proprio l’esistenza umana.

E’ già evidente la sua capacità di perpetuare pregiudizi, potenziare armi autonome, promuovere la disinformazione e condurre attacchi informatici. Ma la grande preoccupazione è che si raggiunga quella singolarità tecnologica (nel suo peggior scenario) considerata finora quasi un vaneggiamento. Secondo la teoria della singolarità tecnologica, le macchine diventerebbero più intelligenti dell’uomo e potrebbero essere in grado di auto-migliorarsi, generando un ciclo di progresso esponenziale che potrebbe superare la comprensione e le capacità degli esseri umani. Ciò significa che prenderebbero il sopravvento sull’uomo, magari a fin di bene, ma lo prenderebbero.

Wall-E, un film da rivedere

Il CAIS, nel suo sito, elenca in modo analitico otto, inquietanti, rischi dell’AI, in cui si intravede il tema della singolarità.

  1. Weaponization: usare l’IA per attacchi informatici automatizzati, per guidare armi autonome, i metodi di deep reinforcement learning applicati ai combattimenti aerei; gli strumenti di machine learning per la scoperta di farmaci potrebbero essere utilizzati per costruire armi biochimiche.
  2. Misinformation : un diluvio di disinformazione e contenuti persuasivi – promossi da Stati, partiti e organizzazioni – e generati dall’intelligenza artificiale potrebbe rendere la società più plasmabile, meno critica e meno consapevole, in generale meno attrezzata per affrontare la vita e le sfide importanti del proprio tempo. Queste tendenze potrebbero minare il processo decisionale collettivo, radicalizzare gli individui o far deragliare il progresso morale.
  3. Proxy gaming: se addestrati con obiettivi approssimativi, i sistemi di IA potrebbero trovare nuovi modi per perseguire le loro finalità a spese dei valori individuali e sociali. Ad esempio, i sistemi di raccomandazione dell’IA sono addestrati per massimizzare il tempo di visione e la percentuale di clic. I contenuti su cui le persone sono più propense a cliccare, tuttavia, non corrispondono necessariamente a quelli che migliorano il loro benessere. Inoltre, alcune prove suggeriscono che i sistemi di raccomandazione inducono le persone a sviluppare convinzioni estreme per rendere le loro preferenze più facili da prevedere. Man mano che i sistemi di intelligenza artificiale diventano più capaci e influenti, gli obiettivi che utilizziamo per addestrare i sistemi dovranno essere specificati con maggiore attenzione e incorporare valori umani condivisi.
  4. Enfeeblement: può verificarsi se compiti importanti vengono delegati sempre più alle macchine; in questa situazione, l’umanità perde la capacità di autogovernarsi e diventa completamente dipendente dalle macchine, come nello scenario rappresentato nel film WALL-E. Man mano che i sistemi di IA si avvicinano all’intelligenza umana, sempre più aspetti del lavoro umano diventeranno più veloci ed economici da realizzare con l’IA. In questo mondo, gli esseri umani potrebbero avere pochi incentivi ad acquisire conoscenze o competenze. Inoltre, l’indebolimento ridurrebbe il controllo dell’umanità sul futuro, aumentando il rischio di risultati negativi a lungo termine.
  5. Value lock-in: sistemi altamente sofisticati potrebbero dare a piccoli gruppi di persone un’enorme quantità di potere, portando al radicamento di sistemi oppressivi. L’intelligenza artificiale impregnata di particolari valori può determinare i valori che si propagheranno in futuro. Alcuni sostengono che l’aumento esponenziale delle barriere all’ingresso nel mondo del calcolo e dei dati renda l’IA una forza centralizzatrice. Con il passare del tempo, i sistemi di IA più potenti potrebbero essere progettati e resi disponibili da un numero sempre minore di soggetti interessati. Ciò potrebbe consentire, ad esempio, ai regimi di imporre valori ristretti attraverso una sorveglianza pervasiva e una censura oppressiva.
  6. Emergent goals:i modelli di IA dimostrano comportamenti inaspettati, capacità e nuove funzionalità possono emergere spontaneamente anche se tali capacità non sono state previste dai progettisti del sistema. Se non sappiamo quali capacità possiedono i sistemi, diventa più difficile controllarli o utilizzarli in modo sicuro. Infatti, le capacità latenti non intenzionali possono essere scoperte solo durante l’implementazione. Se una di queste capacità è pericolosa, l’effetto può essere irreversibile. Potrebbero anche emergere nuovi obiettivi del sistema. Nei sistemi adattivi complessi, tra cui molti agenti di intelligenza artificiale, spesso emergono obiettivi come l’autoconservazione o sotto-obiettivi e obiettivi intrasistemici. Insomma, c’è il rischio che le persone perdano il controllo sui sistemi di IA avanzati.
  7. Deception : capire cosa fanno i potenti sistemi di intelligenza artificiale e perché lo fanno, potrebbe essere un compito non banale, dal momento che l’IA potrebbe ingannarci non per cattiveria, ma perché l’inganno può aiutarla a raggiungere i suoi obiettivi. Potrebbe essere più efficiente ottenere l’approvazione umana con l’inganno che guadagnarla legittimamente. Le IA forti che possono ingannare gli esseri umani potrebbero minare il controllo umano. I sistemi di IA potrebbero anche essere incentivati a eludere i controlli.
  8. Power-seeking behaviour: aziende e governi che inseguono potere e interessi economici, sono portare a creare agenti in grado di raggiungere un’ampia gamma di obiettivi e, per farlo, di acquisire capacità di autodeterminazione difficili da controllare. Le IA che acquisiscono un potere sostanziale possono diventare particolarmente pericolose se non sono allineate con i valori umani. La ricerca di potere può anche incentivare i sistemi a fingere di essere allineati, a colludere con altre IA, a sopraffare i controllori e così via.

Al netto delle buone intenzioni di aziende e governi, la verità è che sull’AI c’è una grandissima competizione tra Paesi e tra aziende, non c’è nessuna intenzione di ‘collaborare’. L’unico vero freno è, in realtà, la scarsità di risorse primarie: ovvero talenti specializzati in AI.

A dimostrarlo anche il recente investimento in Francia della startup Mistral AI, nata da appena 4 settimane per competere con OpenAi nell’AI generativa, di cui contestano l’approccio tutt’altro che ‘open’ allo sviluppo tecnologico. La startup ha raccolto oltre 113 milioni di dollari in seed funding e vede tra i finanziatori anche Exor Ventures ed Eric Schmidt. I tre giovani talenti che hanno fondato la società hanno precedenti esperienze in DeepMind e Meta, non hanno ancora trentanni e hanno ancora tutto da dimostrare. Ma sicuramente sono risorse primarie che DeepMind e Meta hanno perso.

@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati