This content is available in English

Robot e intelligenza artificiale. Alleati o nemici dell’uomo? In gioco è la dignità della persona. Parla il teologo Emmanuel Agius

A prima vista, teologia e robotica non sembrano avere molto da dirsi. Ma non sono due universi lontani. Con la robotica, che sta plasmando sempre più la vita delle generazioni attuali e future, la teologia deve entrare in dialogo, suscitare domande e offrire guida morale e leadership. Ne è convinto Emmanuel Agius, teologo maltese e membro dell’European Group on Ethics in Science and New Technologies (Ege). "E attenzione - dice - al robotical divide". Lo abbiamo intervistato

“La fede non è un’entità disincarnata e la riflessione teologica non può rimanere indifferente di fronte al progresso e all’impatto dell’intelligenza artificiale (AI) e della robotica sull’uomo e sulla società, ma deve entrare in dialogo con la scienza e la tecnologia”. Parola di Emmanuel Agius, decano della Facoltà di teologia dell’Università di Malta e membro dell’ European Group on Ethics in Science and New Technologies (Ege – organo consultivo indipendente del presidente della Commissione europea), che abbiamo incontrato in Vaticano, a margine del workshop “Robo Ethics. Humans, machines and health” promosso nei giorni scorsi dalla Pontificia Accademia per la vita.

Robot e AI: alleati o nemici dell’uomo?
L’uno e l’altro: possono migliorarne il benessere e promuoverne la dignità. Tuttavia, possono anche offenderne e manipolarne la dignità. I robot promuovono la dignità dei lavoratori quando aiutano a ridurre o a eliminare mansioni pericolose, ripetitive, umilianti, e quando contribuiscono a rendere il lavoro più efficiente e umano All’opposto, il loro uso pervasivo costituisce una minaccia alla dignità umana. Ad esempio quando la maggiore efficienza legata a robotizzazione, automazione e digitalizzazione porta a sostituire un considerevole numero di lavoratori con macchine intelligenti, e queste persone non trovano facilmente un altro impiego in una società estremamente complessa come la nostra. I robot proteggono la dignità umana quando controllano gli spazi pubblici per garantire sicurezza e incolumità alla gente, o quando vengono usati militarmente a scopo di difesa. Il monitoraggio algoritmico di specifici luoghi di lavoro può aumentare la sicurezza dei lavoratori; tuttavia una sorveglianza pervasiva può costituire una minaccia per la dignità e la privacy. Le auto a guida autonoma possono migliorare la qualità della vita ma possono anche mettere in pericolo persone o addirittura ucciderle a causa di guasti tecnologici o ai sensori, o hacking.

Che cosa pensa dei “care-bot” impiegati per l’assistenza ad anziani e malati?
I robot sanitari possono sostituire i caregiver in compiti faticosi e possono fornire aiuto meccanico nella cura di anziani o disabili. Un robot in grado di stimolare la cognizione di un paziente affetto da demenza, o di eseguire quotidianamente alcune attività può essere utile, ma una macchina non può sostituire gli aspetti umani della cura dei pazienti.

Inammissibile parlare di “cura artificiale” o “empatia artificiale”.

Alcuni sostengono che è possibile attribuire ai robot più “intelligenti” un “agire” simile a quello degli umani…
C’è chi ritiene possiedano un “sé” con intenzioni, obiettivi, emozioni e un certo grado di consapevolezza e di coscienza, o che siano autonomi e capaci di assumere decisioni. In realtà l’antropologia e l’etica teologica gettano luce sulla vera natura della persona umana e dell’agire morale e stimolano il dibattito sull’agire dei robot e sul reale significato di intenzionalità, libertà della volontà, ruolo delle emozioni o dei desideri, coscienza morale e responsabilità. Dilemmi molto complessi. L’emergente “etica delle macchine” che mira a dotare i robot di principi o procedure per risolvere i dubbi etici indica la portata del riduzionismo tecnologico odierno, duramente criticato da Benedetto XVI nella Caritas in veritate.

Dunque non si può equiparare l’agire umano all’agire di un robot…
L’agire morale è la caratteristica degli umani, non delle macchine. L’agire dei robot ha le sue origini nel lavoro di progettisti e programmatori e nei processi di apprendimento ai quali i loro sistemi cognitivi sono stati sottoposti. Gli obiettivi delle loro azioni sono strutturati da algoritmi e intelligenza artificiale. Per questa ragione, indipendentemente da quanto sia intelligente,

non si può attribuire intenzionalità intrinseca a un robot e il suo agire non ha valore morale.

Per questo c’è chi si chiede se sia possibile “programmare” la moralità in un robot e “insegnargli” a distinguere il bene dal male…
E anche se una macchina intelligente possa acquisire la capacità di gestire una situazione che non corrisponde alle regole, se cioè possa essere dotata di processi decisionali oppure se un giorno sarà in grado di calibrare autonomamente i propri algoritmi cosicché che il suo comportamento diventi imprevedibile. Tuttavia, la maggior parte degli studiosi che lavorano sull’etica delle macchine concorda sul fatto che i robot sono ancora lontani dal diventare “agenti etici” paragonabili agli esseri umani.

A chi ascrivere la responsabilità morale e giuridica del comportamento dei robot più autonomi?
Altro interrogativo delicato. Potremmo parlare di responsabilità condivisa tra robot, designer, ingegneri e programmatori? Nessuno di questi agenti potrebbe essere indicato come la principale fonte di azione. Inoltre, nel dibattito sulla responsabilità dei robot è fondamentale il problema della tracciabilità di tutte le loro azioni e omissioni.

Quali gli impatti della robotica su giustizia, solidarietà e bene comune?
Occorre evitare di creare nuove povertà approfondendo il divario già esistente tra Paesi in via di sviluppo e Paesi sviluppati.

No ad aggiungere al digital divide anche un robotical divide

Il suo rapido avanzamento richiede lavoratori più qualificati; la società deve introdurre misure di protezione per i gruppi più vulnerabili ma occorre anche una riqualificazione dei lavoratori e di tutta la società.

Dal punto di vista dell’etica cristiana, è lecito l’uso militare della robotica?
Il fatto che le armi siano diventate più precise non significa che sia aumentata la capacità di distinguere tra chi è un bersaglio legittimo e chi non lo è. Rimane il serio problema del principio di proporzionalità: il pilota “remoto” è in grado di bilanciare il vantaggio militare con la perdita di vite umane? Per quanto riguarda le armi autonome, è accettabile che delle macchine assumano decisioni di vita e di morte? È corretto delegare ad una macchina, non importa quanto complessa, l’uccisione di esseri umani?

Quale allora il ruolo della teologia di fronte a queste sfide?
Allargare l’orizzonte di significato, ripristinare la centralità e la dignità della persona, suscitare domande per chiarire obiettivi e mezzi per raggiungerli. Come ricorda Papa Francesco in Laudato si’, solo se orientate dall’etica, dal principio della dignità e della centralità della persona umana, da una solida coscienza morale, queste tecnologie innovative possono migliorare la vita dell’uomo ed essere al servizio del bene. A prima vista, teologia e robotica non sembrano avere molto in comune; in realtà non sono due universi lontani. Con questa nuova tecnologia, che sta plasmando sempre più la vita delle generazioni attuali e future, la teologia deve entrare in dialogo e offrire guida morale e leadership.

 

Altri articoli in Europa

Europa