Robot e intelligenza artificiale: Agius (Ege), “teologia susciti domande e offra guida morale”. Macchine “non hanno intenzionalità”. Perplessità su usi militari

Di fronte alle sfide poste dall’intelligenza artificiale e dalla robotica, la teologia è chiamata ad “allargare l’orizzonte di significato, ripristinare la centralità e la dignità della persona, suscitare domande per chiarire obiettivi e mezzi per raggiungerli”. Lo afferma Emmanuel Agius, decano della Facoltà di teologia dell’Università di Malta e membro dell’European Group on Ethics in Science and New Technologies (Ege – organo consultivo indipendente del presidente della Commissione europea) intervistato dal Sir in Vaticano. Con questa nuova tecnologia, che sta plasmando sempre più la vita delle generazioni attuali e future, “la teologia deve entrare in dialogo e offrire guida morale e leadership”, la convinzione dell’esperto. Diversi i temi affrontati nell’intervista. Sull’ipotesi di riconoscere ai robot più “intelligenti” un “agire” simile a quello degli umani, Agius chiarisce che nessuna equiparazione è possibile: l’agire umano è legato a” intenzionalità, libertà della volontà, ruolo delle emozioni o dei desideri, coscienza morale e responsabilità”; quello dei robot “ha le sue origini nel lavoro di progettisti e programmatori e nei processi di apprendimento ai quali i loro sistemi cognitivi sono stati sottoposti”. Indipendentemente da quanto sia intelligente, “non si può attribuire intenzionalità intrinseca a un robot e il suo agire non ha valore morale”. A chi ascrivere la responsabilità morale e giuridica del comportamento dei robot più autonomi? “Potremmo parlare di responsabilità condivisa tra robot, designer, ingegneri e programmatori? Nessuno di questi agenti – la risposta del teologo – potrebbe essere indicato come la principale fonte di azione. Inoltre, nel dibattito sulla responsabilità dei robot è fondamentale il problema della tracciabilità di tutte le loro azioni e omissioni”. Sull’uso militare della robotica, Agius avverte: “Il fatto che le armi siano diventate più precise non significa che sia aumentata la capacità di distinguere tra chi è un bersaglio legittimo e chi non lo è. Rimane il serio problema del principio di proporzionalità: il pilota ‘remoto’ è in grado di bilanciare il vantaggio militare con la perdita di vite umane? Per quanto riguarda le armi autonome, è accettabile che delle macchine assumano decisioni di vita e di morte? È corretto delegare ad una macchina, non importa quanto complessa, l’uccisione di esseri umani?”.

 

 

© Riproduzione Riservata

Quotidiano

Quotidiano - Italiano

Italia