Hate speech: Loukarelis (Unar), “con intelligenza artificiale rischi altissimi di incorrere in discriminazioni”

“È facile dire creiamo uno strumento normativo ma non è un caso che in questi anni non si riesca a individuare come colpire pienamente il fenomeno”. Lo dice Triantafillos Loukarelis, direttore Ufficio nazionale anti-discriminazione razziale (Unar), uno dei relatori dell’incontro di questa mattina dedicato dall’Università Cattolica di Milano all’hate speech e agli strumenti d’intervento come l’intelligenza artificiale. “A livello internazionale – continua – si sta lavorando da diverso tempo su come mettere in piedi uno strumento normativo capace di fare da guida ai diversi Paesi per avere un approccio uniforme. Non tutti i Paesi però accettano che le razze non esistano, così come alcuni Paesi si oppongono alle parole sull’identità di genere. C’è attualmente una battaglia culturale fra alcuni Paesi europei”. “L’intelligenza artificiale – osserva – provoca dei rischi altissimi di incorrere in discriminazioni perché parte acquisendo informazioni vecchie attinte da database sulla persona tramite il cosiddetto machine learning. Per fortuna questi aspetti sono attenzionati anche nella strategia nazionale e c’è attenzione da parte della Commissione europea e del Consiglio d’Europa. Nel 2019 la Commissione ha divulgato sette linee guida, fra cui la supervisione umana che è molto incoraggiante, la trasparenza, per cui si deve sapere chi fa questo processo e come è articolato l’algoritmo per evitare la discriminazione. Il Consiglio d’Europa dice che la linea rossa che non si può superare è la dignità umana. È un auspicio ma come Paese dobbiamo avere un ruolo e non possiamo trascurare il discorso della intelligenza artificiale”.

© Riproduzione Riservata

Quotidiano

Quotidiano - Italiano

Europa