Il lato oscuro dell’IA, le applicazioni usate per reati contro i minori

Avevamo affrontato l’argomento che mette in luce il lato più oscuro dell’utilizzo dell’intelligenza artificiale in questo articolo che spiega, forte dei dati raccolti dall’associazione Meter, come la tecnologia può essere usata per abusi e inganni su minori. Riprendiamo il tema perché sempre secondo Meter una chiara minaccia è quella della piattaforma UnlucidAI che è in grado di denudare virtualmente immagini di minori, creando contenuti pedopornografici tramite intelligenza artificiale, e non si tratterrebbe solo di dark web: i contenuti verrebbero diffusi anche nel web ordinario, attraverso gruppi crittografati gestiti da pedocriminali. Questi ambienti ospitano comunità che scambiano contenuti illegali, aggirando i controlli tradizionali.

A differenza delle applicazioni simili già denunciate in passato da Meter, come ad esempio Bikini Off, stavolta la novità di UnlucidAI è che viene impiegata per agire su immagini di minori e neonati.

Pur dichiarando nei propri termini d’uso il divieto di generare immagini che rappresentino abusi su minori, UnlucidAI non impedisce tecnicamente la creazione di tali contenuti. Gli utenti riescono così a produrre e condividere materiale pedopornografico sintetico, approfittando dell’assenza di blocchi efficaci e di controlli reali sulla generazione delle immagini.

UnlucidAI non risulta essere né una startup né un’azienda strutturata in modo tradizionale. Non presenta nemmeno una trasparenza societaria.  Si tratta piuttosto di una piattaforma web che offre strumenti di intelligenza artificiale per la generazione, l’editing e l’animazione di immagini e video, presentandosi come “AI uncensored” e permettendo agli utenti di creare contenuti senza filtri o particolari limiti tecnici. Nei suoi materiali pubblici e sul sito ufficiale, UnlucidAI si rivolge genericamente a “dreamer” e creativi digitali e non mette in evidenza uno staff dirigenziale, consiglio di fondatori, informazioni societarie chiare o chi effettivamente gestisca la piattaforma.

In una nota Meter ha condannato la piattaforma definita dai pedopornografi “uno strumento per la creazione di contenuti privi di censura” che sfrutta l’intelligenza artificiale generativa per manipolare foto di bambini, ricostruendo digitalmente i loro corpi in modo falso ma verosimile, denudandoli.

Meter ha inoltre da poco presentato il primo dossier che analizza come l’intelligenza artificiale venga sfruttata per generare child sexual abuse material (Csam), alterare immagini e favorire l’adescamento on line, manipolando i minori.

L’utilizzo dell’IA per la pedopornografia in Italia ha avuto una crescita significativa a partire da dicembre 2024, con quasi tremila casi accertati in soli sei mesi. La produzione e lo scambio dei nuovi contenuti generati o manipolati dall’IA sono facilitati dal fatto che queste tecnologie sono accessibili anche a utenti senza competenze tecniche particolari. Il materiale viene diffuso su canali e piattaforme crittografate come Signal e Telegram oppure su aree del web ordinario gestite da comunità illegali, non solo quindi più nel dark web. Questi ambienti sono estremamente difficili da controllare perché sfruttano anche chatbot, che vengono usati sia per distribuire immagini che per interagire con minori al fine di adescamento. 

Il 92,2% degli adolescenti ha avuto contatti con chatbot e oltre il 50% non sarebbe in grado di riconoscere un video deepfake

Meter chiede una mobilitazione immediata delle istituzioni italiane ed europee, oltre che un intervento diretto delle piattaforme di hosting, social network e motori di ricerca per individuare e bloccare ogni tentativo di diffusione di questo strumento criminale.

“Non si tratta solo di contrastare un servizio digitale, è una battaglia culturale, etica e giuridica. Chi sviluppa o distribuisce queste tecnologie è complice di reati gravissimi – afferma Fortunato Di Noto, fondatore di Meter – Siamo di fronte a un crimine senza contatto”. (foto di sebastiaan stam su Unsplash)

© RIPRODUZIONE RISERVATA

    Iscriviti alla newsletter