· Città del Vaticano ·

Come viene utilizzata l’IA nei reati di pedopornografia: presentato il 1° dossier di Meter

Bambini e adolescenti sempre più a rischio

 Bambini e adolescenti sempre più a rischio  QUO-143
23 giugno 2025

di Francesco Ricupero

In appena sei mesi (dicembre 2024-maggio 2025) circa tremila bambini in Italia sono stati “spogliati” sull’App di messaggistica istantanea, Signal, da pedofili e pedopornografi che operano in rete. Questo dato raccapricciante è emerso durante la presentazione del primo dossier realizzato dalla Fondazione Meter che ha analizzato come l’Intelligenza Artificiale (IA) venga sfruttata per generare child sexual abuse materiale (Csam), alterare immagini e favorire l’adescamento on line, manipolando i minori. Alla presentazione, avvenuta lunedì mattina, presso la sede della Conferenza episcopale italiana a Roma, erano presenti, tra gli altri, don Fortunato Di Noto, presidente e fondatore dell’associazione Meter per il contrasto della pedofilia e pedopornografia, Maria Teresa Bellucci, vice ministro del Lavoro e delle Politiche Sociali, Ivano Gabrielli, direttore della Polizia postale e per la sicurezza cibernetica, Chiara Griffini, presidente del Servizio nazionale Cei per la Tutela dei minori, e Vincenzo Corrado, direttore dell’Ufficio nazionale per le Comunicazioni sociali della Cei.

La ricerca ha evidenziato che 989 studenti intervistati, di età compresa tra i 14 e i 18 anni, conoscono l’Intelligenza Artificiale, interagiscono con chatbot e affrontano rischi legati alle molestie online. Particolarmente preoccupante è il fenomeno del deepnude, infatti l’IA può “spogliare” virtualmente i minori. «Non possiamo permetterci di distrarci — ha dichiarato ai media vaticani don Di Noto — poiché si rischia di alimentare un mercato di abusi. L’IA è un pericolo per gli adolescenti poiché, come si evince dal nostro dossier, sta sfruttando l’innocenza dei bambini per quanto riguarda le chatbot, poiché non hanno la possibilità di verificare che dall’altra parte c’è una macchina che quindi influenza moltissimo la loro vita e li condiziona a tal punto di creare immagini pedopornografiche e rielaborale. Abbiamo analizzato circa tremila minori che con il deepnude sono stati spogliati e questo ha creato in loro tanta preoccupazione poiché si sentono feriti nella propria dignità. La percezione del pericolo da parte dei giovani c’è — ha spiegato il fondatore di Meter — ma dall’altra parte manca a volte una continuata prevenzione. Dobbiamo entrare nei meccanismi dell’IA per garantire un’etica e offrire una possibilità di percorsi positivi necessari per evitare che minori e adolescenti vengano sempre più coinvolti dal turpe fenomeno della pedopornografia sul web».

Il 65,7 per cento degli intervistati, quindi, conosce il fenomeno deepnude e il 59,4 per cento teme la loro creazione e diffusione, un allarme sempre più preoccupante per i giovani. Peggio ancora: il 52,3 per cento non riesce a distinguere un video deepfake da uno reale. Lascia un po’ di speranza sapere che il 90,5 per cento ritiene che diffondere un deepfake e deepnude costituisce un serio pericolo e che il 65,1 per cento di essi denuncerebbe senza indugio. Privacy, reputazione, indistinguibilità tra vero e falso: i giovani hanno paura di tutto questo.

Ma oltre alla paura c’è anche tanta preoccupazione per il diffondersi di reti criminali che riescono a coinvolgere milioni di bambini nel mondo. «Purtroppo — ha ricordato Gabrielli — c’è gente sul web che possiede centinaia di migliaia di video con contenuti atroci e il nostro impegno è veramente enorme».

In Italia, nonostante gli sforzi in atto, le norme in tema di IA non tutelano abbastanza i minori. Non riescono ad affrontare il problema e non hanno adeguata velocità e incisività. Secondo l’associazione Meter servono a livello globale leggi che sottolineino, con la severità delle pene, che la manipolazione delle immagini dei minori è abuso. Di qui, la richiesta a tutti i governi affinché spingano le software house a dotare i loro prodotti IA di adeguate misure che identifichino e blocchino la produzione di questo tipo di materiale, lo rimuovano e permettano al contempo la segnalazione di chi si è servito

«La lettura del dossier — scrivono in un messaggio inviato a don Di Noto il cardinale Zuppi e l’arcivescovo Baturi — non lascia spazio ad ambiguità: l’intelligenza artificiale, oggi, è anche uno strumento di abuso. Le tecnologie più avanzate, progettate per migliorare la vita, vengono impiegate per creare immagini pedopornografiche, alterare fotografie di minori, manipolare conversazioni e generare rapporti simulati capaci di aggirare la vigilanza degli adulti e la consapevolezza stessa dei bambini. Non si tratta di casi isolati. I dati raccolti — si legge nel messaggio — evidenziano un sistema strutturato e crescente, dove immagini false producono danni veri, dove la logica del deepfake diventa complice di una cultura che banalizza l’abuso, frammenta la responsabilità e rende quasi impossibile distinguere il vero dal fittizio».