Grok, il chatbot di intelligenza artificiale (xAI) integrato nella piattaforma social X (ex Twitter), di cui il proprietario è Elon Musk, avrebbe consentito la creazione di deepfake, in questo caso relativi a immagini di nudo e contenuti sessuali non consensuali, attraverso le fotografie di persone comuni o personaggi pubblici.
Nello specifico si tratterebbe soprattutto di contenuti ‘deepnude’ riguardanti minori. Il procuratore generale della California, Rob Bonta, ha infatti avviato un’indagine con l’accusa che la tecnologia venga utilizzata per creare immagini sessualmente esplicite non consensuali di donne e minori.
Bonta ha definito “scioccante” la valanga di segnalazioni ricevute a inizio gennaio dalle organizzazioni per la tutela dei minori e dalle inchieste giornalistiche internazionali, esortando xAI a un’azione immediata. Di suo, Elon Musk, poche ore prima, aveva affermato di non essere a conoscenza di immagini di minorenni nudi. Solo dopo un’ondata di critiche politiche e istituzionali, X ha risposto limitando la funzione di generazione delle immagini agli utenti paganti. Secondo quanto dichiarato sulla piattaforma, la misura avrebbe migliorato la tracciabilità e scoraggiato gli abusi, difatti gli abbonati paganti sarebbero stati maggiormente tracciabili rispetto ai non.
Parallelamente le autorità di regolazione hanno preso diverse decisioni. Ofcom, nel Regno Unito, ha avviato verifiche formali alla luce dell’Online Safety Act, mentre in alcuni Paesi asiatici, tra cui Indonesia e Malaysia, l’accesso a Grok è stato temporaneamente bloccato o sottoposto a restrizioni severe. La Commissione europea a inizio gennaio aveva già annunciato che avrebbe esaminato i casi di immagini a contenuto sessuale esplicito di giovani ragazze generate da Grok.
Le cause della creazione e diffusione di tali contenuti sono da rimandare all’introduzione di una funzione a pagamento nota come ‘spicy mode’ nella scorsa estate, che, perlappunto, avrebbe riguardato anche minori. “Posso confermare che anche la Commissione sta esaminando molto seriamente la questione”, ha dichiarato lunedì a Bruxelles un portavoce della Commissione.
Il Garante per la protezione dei dati personali a inizio gennaio aveva adottato un provvedimento di avvertimento nei confronti degli utilizzatori di servizi basati sull’intelligenza artificiale, come Grok, ChatGPT e Clothoff, quest’ultima già destinataria di un provvedimento di blocco nell’ottobre scorso, e altri servizi analoghi disponibili online, che consentono di generare e condividere contenuti a partire da immagini o voci reali, arrivando anche a ‘spogliare’ persone senza il loro consenso.
Sempre nella giornata di ieri xAI ha dichiarato che non permetterà più di modificare foto per ritrarre persone reali in abiti succinti in paesi dove ciò è illegale. Secondo xAI, l’azienda di Musk, i contenuti vengono ora geobloccati se violano le leggi locali. “Abbiamo implementato misure tecnologiche per impedire che l’account Grok consenta la modifica di immagini di persone reali in abiti rivelatori, come bikini o lingerie”, ha dichiarato l’azienda.
Il fenomeno del deepnude tramite social network e IA riguarda, solo nel 2024 negli USA, circa 30 milioni di segnalazioni di materiale o attività sospette legate a sfruttamento sessuale di minori (fonte: NCMEC). Lo avevamo approfondito qui. In Italia invece, solo nel periodo dal dicembre 2024 a maggio 2025 sono state riscontrate circa 3000 segnalazioni su un’unica piattaforma, Signal, di CSAM (fonte: METER), ovvero di materiale pedopornografico online, grazie allo sfruttamento dell’intelligenza artificiale.
Ecco come uno strumento tecnologico è potuto così diventare una tecnologia d’abuso su larga scala grazie all’eco dei social. E il problema giuridico è ancora aperto: la responsabilità è dello sviluppatore, della piattaforma che integra il materiale tramite l’algoritmo, dell’algoritmo stesso, dell’utente finale, o del proprietario, che dovrebbe essere in fin dei conti a conoscenza di tali segnalazioni? Negli Stati Uniti, si sta discutendo su leggi che consentirebbero alle vittime di deepfake di citare in giudizio non soltanto gli autori, ma anche le piattaforme che facilitano la loro diffusione. In Europa, abbiamo il Digital Services Acte l’AI Act che introducono responsabilità dirette per i fornitori di sistemi di intelligenza artificiale considerati ad alto rischio. Non solo, ma è ancora in discussione il cosiddetto e tanto dibattuto Chat control. Lo avevamo approfondito qui. Sta di fatto che l’esito dell’indagine del procuratore californiano sarà un punto di svolta almeno per la legislazione americana. (foto di Salvador Rios su Unsplash)
© RIPRODUZIONE RISERVATA