“L’Unicef è sempre più allarmato dalle segnalazioni di un rapido aumento del volume di immagini sessualizzate generate dall’Intelligenza artificiale che circolano, compresi casi in cui fotografie di bambini sono state manipolate e sessualizzate”. È quanto dichiara oggi l’Unicef.
I deepfake – immagini, video o audio generati o manipolati con l’Intelligenza artificiale (IA) in modo da sembrare reali – vengono sempre più utilizzati per produrre contenuti sessualizzati che coinvolgono bambini, anche attraverso la “nudificazione”, dove gli strumenti di IA vengono utilizzati per spogliare o alterare gli abiti nelle foto per creare immagini falsificate di nudo o sessualizzate, ricorda l’Unicef.
Nuove evidenze confermano la portata di questa minaccia in rapida crescita: in uno studio condotto da Unicef, Ecpat e Interpol in 11 Paesi, “almeno 1,2 milioni di bambini hanno rivelato che le loro immagini sono state manipolate in deepfake sessualmente espliciti nell’ultimo anno”. In alcuni Paesi, “ciò rappresenta 1 bambino su 25, l’equivalente di un bambino in una classe tipica”.
In alcuni dei Paesi oggetto dello studio, “fino a due terzi dei bambini hanno dichiarato di temere che l’intelligenza artificiale possa essere utilizzata per creare false immagini o video a sfondo sessuale”.
L’Unicef non ha dubbi: “Le immagini sessualizzate di bambini generate o manipolate utilizzando strumenti di IA sono materiale che costituisce abuso sessuale su minorenni (Csam). L’abuso tramite deepfake è un abuso, e non c’è nulla di falso nel danno che provoca. Quando viene utilizzata l’immagine o l’identità di un bambino, quel bambino è direttamente vittimizzato. Anche senza una vittima identificabile, il materiale relativo ad abusi sessuali su minorenni generato dall’IA normalizza lo sfruttamento sessuale dei bambini, alimenta la domanda di contenuti abusivi e presenta sfide significative per le forze dell’ordine nell’identificare e proteggere i bambini che hanno bisogno di aiuto”.
L’Unicef chiede con urgenza una serie di azioni per affrontare la crescente minaccia dei materiali di abuso sessuale su minorenni generati dall’IA: “Che tutti i Governi amplino le definizioni di materiale di abuso sessuale su minorenni (Csam) per includere i contenuti generati dall’IA e criminalizzino la sua creazione, acquisizione, possesso e distribuzione. Che gli sviluppatori di IA implementino approcci di sicurezza integrati nella progettazione e solide misure di protezione per prevenire l’uso improprio dei modelli di IA. Le aziende digitali devono impedire la diffusione di materiale di abuso sessuale su minorenni generato dall’Intelligenza artificiale, non limitarsi a rimuoverlo dopo che l’abuso è avvenuto, e rafforzare la moderazione dei contenuti investendo in tecnologie di rilevamento, in modo che tale materiale possa essere rimosso immediatamente, non giorni dopo la segnalazione da parte della vittima o di un suo rappresentante”. L’Unicef ammonisce: “Il danno causato dall’abuso dei deepfake è reale e urgente. I bambini non possono aspettare che la legge si adegui”.