Ue: Agenzia per i diritti fondamentali, vigilare perché l’intelligenza artificiale non crei discriminazioni

L’Agenzia Ue per i diritti fondamentali (Fra) invita i responsabili politici a garantire che l’intelligenza artificiale (Ia) sia testata per “individuare eventuali pregiudizi che potrebbero portare a discriminazioni”. Un nuovo rapporto della Fra esamina, per la prima volta, l’uso dell’intelligenza artificiale nelle politiche di prevenzione e nel rilevamento di discorsi offensivi. “Gli algoritmi ben sviluppati e testati possono apportare diversi miglioramenti. Ma senza controlli adeguati, gli sviluppatori e gli utenti corrono un rischio elevato di avere un impatto negativo sulla vita delle persone”, afferma il direttore della Fra Michael O’Flaherty. “Non esiste una soluzione rapida. Ma abbiamo bisogno di un sistema per valutare e mitigare i pregiudizi prima e durante l’uso degli algoritmi per proteggere le persone dalla discriminazione”, ha aggiunto. L’Agenzia riporta dei casi studio: “se la polizia si reca solo in un’area sulla base di previsioni influenzate da registrazioni di crimini distorte, la polizia rileverà principalmente crimini in quell’area”. Si crea così il cosiddetto ciclo di feedback: “gli algoritmi influenzano gli algoritmi, rafforzando o creando pratiche discriminatorie che possono colpire in modo sproporzionato le minoranze etniche”. Ci possono essere risultati distorti anche negli algoritmi sui discorsi offensivi. “Gli algoritmi possono persino segnalare come offensive frasi innocue come ‘sono musulmano’ o ‘sono ebreo’”. Esiste anche un pregiudizio di genere nelle lingue come il tedesco o l’italiano che può portare a “disparità di accesso ai servizi online su basi potenzialmente discriminatorie”.

© Riproduzione Riservata

Quotidiano

Quotidiano - Italiano

Territori