Ogni anno l’associazione americana NCMEC pubblica un report sui dati della sua piattaforma CyberTipline, dove le aziende digitali (come Meta, Google, TikTok ecc.) sono obbligate per legge a segnalare materiale o attività sospette legate a sfruttamento sessuale di minori (“CSAM”).
I recenti dati del NCMEC sugli abusi sui minori e pedopornografia mostrano negli Stati Uniti un picco nel 2023 di 36,2 milioni di segnalazioni di sfruttamento sessuale online, un record che è andato abbassandosi nel 2024 (20,5 milioni), e che l’associazione NCMEC ricalcola in 29,2 milioni, per un cambio nel modo di aggregare i dati: infatti nel 2024 il NCMEC ha cambiato metodologia: prima contava solo i report (“segnalazioni”, ovvero singoli invii delle piattaforme), che spesso contenevano molti duplicati (es. lo stesso contenuto condiviso su più piattaforme o segnalato più volte). Ora distingue tra “report” e “incident” (il caso o contenuto unico, dopo aver eliminato duplicazioni). Di conseguenza, il numero grezzo di report cala (da 36,2 a 20,5 milioni), ma gli incidenti unici rimangono altissimi (29,2 milioni): un segnale che l’attività di abuso non è diminuita, ma che il modo di conteggiare è più preciso.
Sempre per il 2024, nel Regno Unito l’IWF ha rilevato livelli record di pagine web con CSAM: la quota di contenuti “autoprodotti” (spesso frutto di adescamento/coercizione online) supera il 90% dei contenuti rimossi.
In Europa, l’Europol tramite lo IOCTA ha invece rilevato che la CSEA (child sexual exploitation and abuse) resta tra le minacce online più gravi: i criminali migrano verso servizi cifrati e comunità chiuse, rendendo più difficile l’individuazione e la rimozione dei contenuti. Nel 2024, il 62% di tutte le pagine web dedicate agli abusi sessuali su minori individuate dall’IWF provenivano da paesi dell’UE. Si tratta di un aumento del 28% rispetto all’anno precedente.
In Italia il report della Polizia Postale del 2024 ha evidenziato numerose operazioni e centinaia di arresti per pornografia minorile e oltre 2.300 siti oscurati. Mentre l’ultimo report della Fondazione Terre des Hommes, “Dossier Indifesa”, ha evidenziato oltre 7.200 reati a danno di minori nel 2024, in aumento quelli connessi al digitale (pornografia minorile e detenzione di materiale). Infine il presidente Ernesto Caffo di Telefono Azzurro ha denunciato come “i numeri sugli abusi e le violenze sui minori nel digitale sono in forte aumento”: casi cresciuti del 380% attraverso l’uso dell’IA per creare immagini di abusi online.
Gli aumenti di questi casi sono dovuti quindi al fatto che i criminali si spostano verso chat cifrate e gruppi chiusi (Telegram, WhatsApp, Signal) che ostacolano il rilevamento automatico e riducono la tracciabilità (come espresso nel report dell’Europol). Questo non prova di per sé un aumento assoluto degli abusi, ma spiega la migrazione dei flussi e la maggiore difficoltà di indagine. Quindi, quando Meta/WhatsApp e altre piattaforme rafforzano la cifratura end-to-end, le segnalazioni automatiche, per esempio all’associazione NCMEC, possono diminuire (meno “segnalabili” a monte), anche se l’attività criminale non cala necessariamente. Le piattaforme cifrate sono quindi sempre più usate per scambiare CSAM e fare grooming (“adescamento” del minore), ma la cifratura rende più difficile misurare l’incidenza reale.
Quest’anno l’associazione italiana Meter ha presentato il primo dossier che analizza come l’intelligenza artificiale venga sfruttata per generare CSAM, alterare immagini e favorire l’adescamento on line, manipolando i minori. Dal paper si evince che, dal dicembre 2024 a maggio 2025 (sei mesi), circa tremila bambini in Italia sono stati “spogliati” sull’app di messaggistica istantanea, Signal, da pedofili e pedopornografi che operano in rete. Degno di nota è il fenomeno dei deepnude: persone, in questo caso bambini e adolescenti, che ignari, possono essere rappresentati nudi, in pose discinte, situazioni compromettenti (per esempio, a letto con presunti amanti) o addirittura in contesti pornografici. Ne avevamo scritto qui.
Ebbene, nel periodo 2024-2025 autorità e ONG segnalano un forte incremento di immagini di minori generate con IA, incluse pratiche di “nudificazione” di foto rubate dai social e sextortion, e le operazioni coordinate portano a diversi arresti in 19 Paesi nel 2025. L’analisi dell’UNICRI 2024 inoltre classifica l’IA-CSAM come minaccia emergente. Sempre nel 2024 c’è stato poi il record di pagine con CSAM (IWF 2024): più del 90% di contenuti autoprodotti grazie all’IA, che rende più facile per i criminali creare derivati IA e minacciare i minori con estorsioni (“paghi o diffondiamo le tue immagini”).
Per cercare di prevenire questi reati ognuno di questi paesi ha messo in campo diverse normative. In Europa attualmente è in vigore la regolamentazione temporanea (Reg. UE 2021/1232), prorogata fino ad aprile 2026, che attualmente fornisce una chiara base giuridica per consentire alle aziende di analizzare proattivamente e volontariamente materiale pedopornografico sulle proprie piattaforme, senza il rischio di essere ritenute responsabili per violazione delle norme privacy. Parallelamente, nel 2022 l’Ue ha proposto la “Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse (CSAM )”, oggi nota come “Chat Control”. Ne avevamo scritto qui. Ma a breve l’UE potrebbe rischiare un vuoto normativo: infatti la regolamentazione temporanea scadrà ad aprile e il Chat Control è in un momento di stallo (ne abbiamo scritto qui).
Ci sono però diverse soluzioni bottom-up derivanti da differenti associazioni
L’IWF (“Internet Watch Foundation), la più grande associazione britannica dedicata alla rimozione di materiale pedopornografico online, ha da poco pubblicato (9 ottobre) un nuovo documento che illustra come le piattaforme di messaggistica crittografate end-to-end (E2EE) possono impedire la diffusione di immagini e video di abusi sessuali su minori noti senza violare la crittografia o violare la privacy degli utenti. Ne abbiamo parlato in questo articolo. In pratica, quando un utente tenta di caricare o inviare un file (immagine/video), il dispositivo genera un “hash” (una sorta di impronta digitale del file). L’hash viene confrontato con una lista sicura di hash di contenuti illegali già noti, gestita da un ente fidato come IWF o NCMEC. Se non c’è corrispondenza, il file viene cifrato e inviato normalmente. Se c’è corrispondenza, l’upload viene bloccato immediatamente, prima che il contenuto venga cifrato o lasci il dispositivo. Pertanto l’obiettivo è di bloccare la diffusione di materiale pedopornografico già noto (non cercare nuovi contenuti o comportamenti sospetti).
In Italia, l’associazione Meter, come NCMEC e IWF, da trent’anni raccoglie le segnalazioni private e le riporta alla polizia postale. Proprio durante la conferenza tenutasi questa settimana presso l’UPS dal titolo SefaGuarding dei minori il suo direttore, Carlo Di Noto, dichiara che: “la prima soluzione per prevenire questi casi di abuso è la formazione di genitori, formatori, educatori e professionisti, sulle diverse tecnologie e sul cambiamento della rete”.
Va infatti sempre ricordato che secondo il GDPR l’uso di queste piattaforme è vietato in alcuni casi ai minori di 16 anni, in altri a quelli di 13, a seconda della piattaforma. E se, come ha ribadito Di Noto, “la fase di grooming può durare diversi mesi”, proprio i genitori devono essere informati e formati sull’altro uso, oscuro, della tecnologia e su chi potrebbe nascondersi dall’altra parte dello schermo. (foto di Onur Binay su Unsplash)
© RIPRODUZIONE RISERVATA