Quando l’intelligenza artificiale è usata per abusi e inganni sui minori

Spesso la narrazione intorno all’intelligenza artificiale è molto euforica. Alle volte non vengono minimante accennati gli impatti negativi che tali tecnologie potrebbero arrecare. Anzi, se segnalati, la speculazione è sempre la stessa e riguarda o la scomparsa di alcune professioni e lavori o l’umanizzazione e l’antropomorfizzazione di tali tecnologie.

Certamente sono degne congetture, ma alle volte quasi stufano per essere motivate dal solito clickbait. A Roma si è assistito a un evento molto diretto e incisivo, che può provocare sdegno o rifiuto se non supportato da evidenze oggettive. Si tratta dell’evento dal titolo ‘Intelligenza artificiale. Conoscere per prevenire. Dalla pedopornografia ai deepnude’.

L’Associazione Meter ha presentato presso la sede della CEI il primo dossier che analizza come l’intelligenza artificiale venga sfruttata per generare child sexual abuse material (Csam), alterare immagini e favorire l’adescamento on line, manipolando i minori

Dal paper si evince che, dal dicembre 2024 a maggio 2025 (sei mesi), circa tremila bambini in Italia sono stati “spogliati” sull’app di messaggistica istantanea, Signal, da pedofili e pedopornografi che operano in rete. Sono stati intervistati 989 studenti, di età compresa tra i 14 e i 18 anni, che conoscono l’IA e che interagiscono con chatbot, affrontando rischi legati alle molestie online. 

Degno di nota è il fenomeno dei deepnude: persone, in questo caso bambini e adolescenti, che ignari, possono essere rappresentati nudi, in pose discinte, situazioni compromettenti (per esempio, a letto con presunti amanti) o addirittura in contesti pornografici. Dalla ricerca è emerso che il 52,3 per cento dei ragazzi intervistati non riesce a distinguere un video deepfake da uno reale. Fortunatamente il 90,5 per cento ritiene che diffondere un deepfake e deepnude costituisce un serio pericolo e che il 65,1 per cento denuncerebbe subito. 

Il timore di fronte all’utilizzo malevolo dell’IA è sempre più crescente nei giovani. “Lo sviluppo dell’IA ha permesso ai pedofili il massimo risultato col minimo sforzo” si legge nel dossier. Anche se Meter dal 2008, con protocollo ufficiale, collabora con la polizia postale e della Sicurezza cibernetica italiana, durante l’evento Meter ha comunque richiesto un rafforzamento della cooperazione internazionale per individuare e fermare i responsabili di crimini contro i bambini. 

Se da un lato la stessa IA offre opportunità significative per la protezione dei minori online, è pur vero che il suo utilizzo malevolo è sempre più frequente. Grazie infatti alla facilità con la quale l’IA può produrre immagini e video, chiunque, anche senza particolari competenze tecniche, può creare contenuti in pochi secondi e in questo caso dannosi. 

Uno dei chabot più utilizzati per la condivisione di tali contenuti e adescamento delle vittime è proprio Telegram. Da tempo su Startupbusiness stiamo seguendo il caso Durov, il suo fondatore a cui la Francia ha negato l’uscita dai suoi confini da quasi un anno proprio per 12 capi di accusa contro ignoti su cui si è mossa la Procura francese: sei sono in merito ad addebiti per complicità, dalla “gestione di una piattaforma online per facilitare una transazione illegale all’interno di gruppo organizzato” a quella di “frode organizzata”, fino alla complicità nel possesso di immagini pedopornografiche e nella loro distribuzione e condivisione; infine, complicità per spaccio di stupefacenti, per traffico di programmi per condurre attacchi informatici e per frodi.

La Procura indaga anche per “rifiuto di comunicare, su richiesta delle autorità competenti, informazioni o documenti necessari per effettuare e operare intercettazioni autorizzate dalla legge”, riciclaggio e associazione a delinquere.

E il monitoraggio dell’Osservatorio mondiale contro la pedofilia di Meter ha riscontrato proprio su Telegram l’uso di bot con intelligenza artificiale per interagire con i minori: “tali bot sono in grado di simulare conversazioni in modo talmente realistico e naturale da ingannare i bambini e da fare loro credere che stiano comunicando con un loro coetaneo, reale”.  La conversazione è così sofisticata, grazie all’impiego dell’IA, che i bot riescono ad ottenere dalle vittime numeri di telefono ed e-mail e da poter così spostare la conversazione su altre piattaforme come Whatsapp e Snapchat: “Per via di questo processo, i bot sono in grado di rafforzare la fiducia e il legame emotivo con il minore, inducendolo a rispondere a domande più intime o a rivelare pensieri e sentimenti che normalmente non condividerebbe con persone con cui interagisce con il mondo reale. L’IA è in grado di riconoscere segnali di disagio o di vulnerabilità, come per esempio frasi che indicano solitudine, tristezza o difficoltà emotive, e risponde in modo empatico per far sentire il minore ascoltato e compreso”.

Oggi in Italia le norme in tema di IA non tutelano abbastanza i minori. Secondo Meter servono a livello globale leggi che sottolineino, con la severità delle pene, che la manipolazione delle immagini dei minori è abuso. Meter ha quindi invitato ogni governo a sollecitare le software house affinché integrino nei propri prodotti di intelligenza artificiale misure efficaci atte a rilevare e impedire la generazione di simili contenuti, provvedere alla loro rimozione e consentire la segnalazione degli utenti che ne abbiano fatto uso. (immagine Meter)

© RIPRODUZIONE RISERVATA

    Iscriviti alla newsletter