Nell’era di Internet e dell’intelligenza artificiale, il mondo si trova di fronte a sfide senza precedenti per proteggere i diritti e la dignità dei bambini. Le nuove tecnologie, pur offrendo straordinarie opportunità di crescita e conoscenza, pongono interrogativi profondi sulla responsabilità morale e sul futuro delle nuove generazioni. Proseguendo il cammino tracciato dalla Child Dignity Alliance, Fondazione Child ha promosso oggi presso il Palazzo della Cancelleria a Roma l’”High-Level Meeting on Child Dignity in the Artificial Intelligence Era”, un incontro internazionale di alto profilo dedicato al ruolo dell’etica e della responsabilità nella società digitale. Al centro del confronto, la consapevolezza che l’ambiente online, pur aprendo spazi di creatività e connessione, è anche un luogo in cui l’innocenza dei bambini viene spesso esposta a minacce.
Secondo lo studio “Me, Myself & AI” di Internet Matters, nel Regno Unito il 42% dei ragazzi tra 9 e 17 anni utilizza chatbot per lo studio e l’apprendimento, mentre il 23% si affida a queste tecnologie per chiedere consigli. Una parte significativa dei giovani dichiara di usarli anche per compagnia: per molti, “parlare con un chatbot è come parlare con un amico”. Secondo la ricerca “Bambini e adolescenti nel Regno Unito e chatbot AI” condotta da Hendrycks, il 64% dei minori ha già interagito con un chatbot e più di un terzo ritiene queste conversazioni equivalenti a un dialogo con un amico. Tra i più vulnerabili, la percentuale sale al 50%. Ancora più preoccupante è il 12% che afferma di rivolgersi all’AI perché “non ha nessun altro con cui parlare”. Negli Stati Uniti, l’indagine “Teens & AI Companions” di Common Sense Media (2025) mostra un quadro analogo: il 72% degli adolescenti tra i 13 e i 17 anni ha utilizzato un AI companion almeno una volta, il 52% in modo regolare e il 13% quotidianamente. Un terzo dichiara di usarli per interazioni sociali o emotive, mentre il 24% ha condiviso dati personali con il sistema e il 34% ha vissuto episodi di disagio. L’Internet Watch Foundation ha lanciato un allarme nel primo semestre 2025: sono stati individuati 1.286 video pedopornografici generati da AI, di cui oltre 1.000 appartenenti alla categoria più grave (A).