Fede e tecnologia: Chiesa Cattolica ed Ebraismo di fronte all’intelligenza artificiale

di avv.ti Cristina Arata e Barbara Bottecchia

 

Chiesa Cattolica e IA

di avv. Cristina Arata

Già a fine 2020 la redazione di APF aveva affrontato con una serie di articoli (a partire dal n. 55 della newsletter) l’approccio dell’Unione Europea alle problematiche connesse allo sviluppo scientifico e tecnologico dei processi decisionali automatizzati ed algoritmici, visto ormai il loro impatto diffuso e diretto sulle scelte dei singoli individui e su quelle delle autorità pubbliche. 

La necessità di governare il fenomeno implica l’integrazione di imprescindibili aspetti relativi all'etica, alla sicurezza e alla responsabilità giuridica: si possono verificare distorsioni nel processo di raccolta dei dati e di scrittura dell'algoritmo e nel suo successivo sviluppo applicativo. 

Due, quindi, i piani principali di riflessione: la garanzia di cybersicurezza nell’accessibilità e controllo sul flusso e utilizzo dei dati (per evitare alterazioni o usi impropri); ed il rispetto dei principi di non discriminazione, di trasparenza e di comprensibilità dei processi decisionali, perché l’apprendimento automatico (che è alla base dello sviluppo della IA) non garantisce di per sé uno sviluppo in funzione dell’uomo e della sua umanità.

È quindi necessario individuare il limite dell’autonomia della macchina e definire in modo stringente i profili di responsabilità per i suoi effetti.

Tema caro a Papa Francesco che al Convegno della Pontificia Accademia per la Vita del febbraio 2020 ha sottolineato come “il rapporto tra l’apporto umano e il calcolo automatico va studiato bene perché non sempre è facile prevederne gli effetti e definirne le responsabilità”:

La prof.ssa Beccalli (professore ordinario di Economia - Università Cattolica del Sacro Cuore di Milano) precisa che con “il termine intelligenza artificiale, coniato nel 1955 da John McCarthy, si fa riferimento oggi alla teoria e allo sviluppo di sistemi informatici in grado di eseguire compiti che normalmente richiedono intelligenza umana” (English Oxford Living Dictionary), come ad esempio language processing (algoritmi per l’analisi e la comprensione del linguaggio), machine learning (algoritmi per l’apprendimento automatico) e machine vision (algoritmi per l’interpretazione e il riconoscimento delle immagini)”.

È peraltro ormai evidente come nell’era dell’IA stia cambiando profondamente l’esperienza umana (anche più di quanto si riesca normalmente a comprendere), in ogni campo economico e sociale: la polizia predittiva, il pensiero giuridico, l’esercizio della giurisdizione, i servizi economico finanziari, l’accesso al credito, i mezzi di comunicazione, la produzione dei beni (es. autovetture senza guidatore), l’organizzazione dei servizi, la traduzione automatica di voce di testo di lingue straniere, il governo dei territori (es. decidere se e come riparare o progettare le strade ecc).

L’utilizzazione della IA impatta sui diritti e sulle opportunità presenti e future delle persone, determinando i processi decisionali a vari livelli.

Anche la Chiesa cattolica l’IA rappresenta, quindi, una sfida e un’opportunità ma soprattutto una questione di giustizia sociale. “Infatti, la ricerca pressante, avida e non trasparente dei big data, cioè dei dati necessari ad alimentare i motori di apprendimento automatico può portare alla manipolazione e allo sfruttamento dei poveri. Inoltre, gli stessi scopi per i quali vengono addestrati i sistemi di IA possono portarli a interagire in forme imprevedibili per garantire che i poveri vengano controllati, sorvegliati e manipolati.”

Attualmente i creatori di sistemi di IA sono sempre più gli arbitri della verità per i consumatori. Nel contesto dei progressi del XXI secolo, l’esperienza e la formazione della Chiesa dovrebbero essere un dono essenziale offerto ai popoli per aiutarli a formulare un criterio che renda capaci di controllare l’IA, piuttosto che esserne controllati. La Chiesa è chiamata anche alla riflessione e all’impegno.”

“In ultima analisi, sono le decisioni etiche a determinare e a inquadrare quali problemi affronterà un sistema di IA, come esso vada programmato e come debbano essere raccolti i dati per alimentare l’apprendimento automatico. Possiamo leggere la sfida di quella che potremmo definire l’'evangelizzazione dell’IA' come una combinazione tra la raccomandazione di papa Francesco a guardare il mondo dalla periferia e l’esperienza dei gesuiti del XVI secolo, il cui metodo pragmatico di influenzare chi è influente oggi si potrebbe riformulare come condividere il discernimento con gli scienziati dei dati” (da “L’evangelizzazione dei robot, una nuova sfida per la Chiesa”, di Antonio Spadaro e Paul Twomeny in Avvenire - giovedì 16 gennaio 2020).

È innegabile, infatti, che l’IA avrà nei prossimi anni un impatto fortissimo su molti aspetti della nostra vita, ad es. sull’occupazione (si stima che almeno un 30% delle attività umane già oggi sia passibile di automatizzazione), soprattutto per le fasce sociali più fragili e vulnerabili (con possibile emersione di conflittualità sociale ed emarginazione).

La progettazione e programmazione degli algoritmi, la raccolta e l’elaborazione dei dati sono un’attività umana, e come tale può accompagnarsi a imperfezioni, errori, difetti più o meno voluti, preconcetti parzialità ideologiche e/o valoriali.

Se l’IA regola ad es. l’accesso ai servizi (di istruzione, sicurezza, credito, finanza ecc) è necessario consapevolizzare che è uno strumenti “neutro”: la costruzione della società futura per molti aspetti è nelle mani dei programmatori.

Dal punto di vista cristiano l’IA può ritenersi etica se genera inclusione e comunione, se resta a servizio dell’uomo e non un mezzo che “escluda l’umano”. Questo implica anche onestà e la chiarezza nel definire non solo quello che l’AI è, ma anche quello che non è e che non dovrà essere.

È urgente, quindi, coinvolgere nei valori del Vangelo e della giustizia sociale della Chiesa proprio la nuova classe di ingegneri e di esperti di dati.

La Chiesa è chiamata ad ascoltare, a riflettere e a impegnarsi proponendo una cornice etica e spirituale alla comunità dell’IA, e in questo modo a servire la comunità universale. Seguendo la tradizione della Rerum novarum, si può dire che qui c’è una chiamata alla giustizia sociale. C’è l’esigenza di un discernimento. La voce della Chiesa è necessaria nei dibattiti politici in corso, destinati a definire e ad attuare i princìpi etici per l’IA.” (da “L’evangelizzazione dei robot, una nuova sfida per la Chiesa”, cit.).

Motivo per cui papa Francesco - con un rescritto “ex audientia” ha di recente istituito la Fondazione '”RenAIssance”, che si occuperà di Intelligenza Artificiale e delle sue implicazioni etiche, in continuità con le riflessioni contenute nella Carta “Rome Call for AI Ethics” firmata il 28 febbraio 2020.

Nel documento la Chiesa parlava già di “algorEtica”, perché anche gli algoritmi hanno bisogno di una dimensione morale. 

Papa Francesco rimane convinto che “l'intelligenza artificiale è alla base del cambiamento d'epoca che stiamo vivendo” e che “la robotica può rendere possibile un mondo migliore se è unita al bene comune. Perché se il progresso tecnologico aumenta le disuguaglianze non è un progresso reale”. “I progressi futuri devono essere orientati al rispetto della dignità della persona e del Creato”.

Anche i governi nazionali e sovranazionali sono intervenuti per decidere le regole e, ancor prima, i valori che devono presiedere lo sviluppo e l’uso della IA. E tra loro l’UE, come ampiamente descritto nelle precedenti newsletter.

Inoltre, se nel pensiero cristiano è chiaro che una responsabilità etica e giuridica è riferibile solo ad un essere umano, non sempre è facile individuare nell’ambito della IA a chi in concreto deve essere attribuita questa responsabilità (sviluppatori degli algoritmi, utenti finali, gestori piattaforme …): forse neppure esiste un solo modello giuridico di imputazione.

In alcuni contesti come ad es. nei sistemi di guida automatica assistita da copilota umano, l’attribuzione di responsabilità potrebbe coinvolgere l’utente finale con una sua partecipazione attiva e consapevole delle decisioni dell’algoritmo. A volte la situazione è più complessa, come in ambito finanziario dove le strategie di investimento basate sulla I.A. sono spesso imperscrutabili tanto da rende difficile se non impossibile ricostruire analiticamente il processo decisionale e una partecipazione dell’utente finale.

In ambito finanziario, ad es. l’IA viene già applicata nella gestione del risparmio, nell’individuazione delle strategie di investimento che, sulla base delle informazioni disponibili, cercano allocazioni ottimali di portafoglio. Nella gestione del portafoglio basata sull’intelligenza artificiale (a differenza di quella tradizionale), gli esseri umani e le macchine hanno ruoli interconnessi: il ruolo degli esseri umani (sviluppatori di algoritmi o data scientist) non è solo costruire una strategia di investimento, ma progettare e implementare un algoritmo che alla fine realizzerà la propria strategia di investimento adattiva, con implicazioni dirette sulle scelte di investimento e sulla performance. La performance di una strategia basata sull’intelligenza artificiale dipende non solo dalla selezione iniziale del portafoglio, ma anche dalle capacità della macchina di apprendere da informazioni di mercato e rivedere costantemente la composizione del portafoglio per garantire rendimenti persistenti. In sostanza, la responsabilità per la performance di una strategia statica è attribuibile al gestore del portafoglio che ha costruito la strategia, mentre la performance di un portafoglio basato sull’intelligenza artificiale è determinata dal contributo congiunto di uomini e macchine.

Quanto al rapporto uomo macchina, alla connessa responsabilità e relazione lavorativa, nel magistero della Chiesa Cattolica si afferma che nei processi complessi (e tanto più nei processi ove viene coinvolto l’utilizzo di tecniche di IA), l’archetipo dell’attribuzione della responsabilità su base gerarchica e di controllo può non essere adeguata, e può essere preferibile un processo di attribuzione di natura sociale e relazionale.

Nel documento Oeconomicae et pecuniariae quaestiones della Congregazione per la Dottrina della Fede e del Dicastero per il Servizio dello Sviluppo Umano Integrale si legge che “anche quei sistemi a cui danno vita i mercati, prima ancora che reggersi su anonime dinamiche, elaborate grazie a tecnologie sempre più sofisticate, si fondano su relazioni” (Oeconomicae et pecuniariae quaestiones, 2018, 8).

L’economia, come ogni altro ambito dell’attività umana, “ha bisogno dell’etica per il suo corretto funzionamento; non di un’etica qualsiasi, bensì di un’etica amica della persona” (Caritas in veritate, 2009, 45).  La visione è quindi di un uomo alla “ricerca di un guadagno e di un benessere che siano interi, non riducibili ad una logica di consumo o agli aspetti economici della vita” (Oeconomicae et pecuniariae quaestiones, 9).

L’adozione di pratiche organizzative incentrate sulla responsabilità piuttosto che sul controllo, nonché di schemi di incentivazione legati alla crescita della persona e allo sviluppo della sua creatività piuttosto che alla sola dimensione economica sono in sintonia con tale visione.

L’accento è posto non solo sulla dignità, ma anche sull’autonomia, la responsabilità e la creatività del lavoro: “L’imprenditorialità, prima di avere un significato professionale, ne ha uno umanoEssa è inscritta in ogni lavoro, visto come «actus personae»per cui è bene che a ogni lavoratore sia offerta la possibilità di dare il proprio apporto in modo che egli stesso «sappia di lavorare ‘in proprio’». Non a caso Paolo VI insegnava che «ogni lavoratore è un creatore»” (Caritas in veritate, 41).

L’attribuzione della responsabilità in un processo sociale e relazionale, non gerarchico, enfatizza una dimensione ancora più alta del lavoro, quella del “vissuto in comune”. “Diremo di più: vissuto in comune, condividendo speranze, sofferenze, ambizioni e gioie, il lavoro unisce le volontà, ravvicina gli spiriti e fonde i cuori: nel compierlo, gli uomini si scoprono fratelli” (Populorum progressio, 27).

Il concetto che ogni lavoratore è un creatore, peraltro, si applica non solo ai lavori di più elevato profilo intellettuale e gestionale, come esemplificato nell’esperienza delle fintech, ma anche ai più umili e operativi, poiché espressione del vivere, come sottolineato in maniera illuminante e poetica nel passaggio che segue: “Dio, che ha dotato l’uomo d’intelligenza, d’immaginazione e di sensibilità, gli ha in tal modo fornito il mezzo onde portare in certo modo a compimento la sua opera: sia egli artista o artigiano, imprenditore, operaio o contadino, ogni lavoratore è un creatore. Chino su una materia che gli resiste, l’operaio le imprime il suo segno, sviluppando nel contempo la sua tenacia, la sua ingegnosità e il suo spirito inventivo” (Populorum progressio, 27).

Etica e responsabilità nel pensiero cristiano cattolico sono, quindi, un connubio inscindibile per garantire all’uomo un futuro umano.

 

Intelligenza artificiale ed ebraismo

di avv. Barbara Bottecchia

La parola robot ha compiuto 100 anni, e tuttavia con l’Intelligenza Artificiale e i suoi contesti facciamo ancora fatica a relazionarci. Vi è infatti un problema non risolto nell’interazione tra le due intelligenze: quella umana e quella della macchina.

Il cambiamento fa sempre paura soprattutto se è un cambiamento epocale e sociale.

Il tema dei rapporti tra gli uomini e le macchine e il timore dell’uomo, in relazione ai tentativi di ri-creare la vita o addirittura di ri-produrre l’uomo stesso, è però presente nella cultura umana dai suoi albori e lo si ritrova in molte figure mitologiche di tutte le culture.

L’ebraismo è chiamato a confrontarsi su tutto ed in particolare su ogni novità. In questo campo gli interrogativi sono molti e di diversa natura, ma li si ritrova già nelle fonti più antiche: infatti, il concetto di uomo creato dall’uomo (il golem) e la domanda riguardo alla sua umanità sono stati discussi fin dai tempi Talmudici.

Il golem è una figura antropomorfa presente in tutta la letteratura ebraica e sulla quale gli studiosi si sono sempre posti molte domande. Il termine deriva dalla parola ebraica gelem (materia grezza) e nell’ebraico moderno significa appunto robot. Quando il centro di ricerca più importante di Israele (il Makhon Weizman) cominciò, negli anni 60 a produrre i primi computer scelse per l’oggetto appunto il nome di Golem essendo possibile trasferirgli capacità umane: evidente quindi la relazione tra Intelligenza Artificiale e Golem, relazione confermata anche dalla Ghematria che ci dice che le due parole Chochmà (intelligenza) e Golem hanno lo stesso valore numerico.

Secondo la tradizione ebraica chi conosce la Kabala ed in particolare conosce i poteri legati ai nomi di Dio, acquista la capacità di fabbricare un Golem forte ed ubbidiente, che può essere usato come collaboratore, fare lavori pesanti e difendere il popolo ebraico dai nemici. Nell’Halaka (l’insieme della normativa rituale e giuridica) troviamo moltissime discussioni sulla possibilità di creare un Golem e le risposte sono quasi tutte positive.

Una volta ammesso che sia realmente possibile creare un Golem le domande successive che si sono posti i Maestri sono: è corretto desiderare di farlo? non è un modo per competere con la potenza di Dio? E ancora il Golem ha diritti? Cosa succede se lo si sopprime: è un essere umano? Potrebbe essere un omicidio? Di che sesso è? Potrebbe credere in Dio? Potrebbe scegliere una delle religioni monoteistiche?

Secondo la tradizione ebraica il più famoso tentativo è stato fatto nel XVI secolo dal Rabbino di Praga che plasmò con il fango combinando i quattro elementi (fuoco e acqua, l’aria – rappresentata dall’alito vitale del rav stesso e la terra costituita dalla terracotta) e risvegliò un Golem perché lo aiutasse nelle faccende domestiche, ma anche per difendere la Comunità ebraica dalle persecuzioni.

Come oggi per attivare Alexa la si chiama con il suo nome, a quel tempo al Golem era stata inserita una tavoletta in bocca con il nome divino e sulla fronte la parola verità (in ebraico emet ): per interrompere la sua funzionalità bastava cancellare la lettera alef cosicchè da emet la parola diventava met cioè morto.

Una sera il Rav si dimenticò di togliere la tavoletta dalla bocca del Golem che impazzì e divenne incontrollabile e cominciò a distruggere tutto; e solo togliendo la lettera alef dalla sua fronte il rav riuscì a fermarlo e  a farlo ritornare polvere.

E’ bene precisare che a differenza del robot, il golem ha una sorta di scintilla spirituale che lo anima: egli infatti secondo la tradizione viene portato in vita da un individuo giusto usando i segreti della creazione e questo non è chiaramente il caso dei robot artificiali motorizzati da algoritmi. Quindi apparentemente i moderni robot-computer sono meno umani di un golem, ma hanno la parola.

Il termine biblico che contraddistingue l’umano è medaber (colui che parla) ma è chiaro che la caratteristica chiave distintiva dell’umanità non può essere la parola perché ci sono persone che non ce l’hanno e pappagalli che parlano; è evidente quindi che quando si dice che l’umanità è medaber si intenda l’intelligenza, in particolare l’intelligenza morale e la libertà di scelta. Di conseguenza quando gli umani vengono categorizzati come coloro che parlano essenzialmente stiamo dicendo che hanno anche anime uniche concesse da Dio, e questa cosa l’intelligenza artificiale non la può riprodurre.

L’idea stessa dell’uomo creato ad immagine di Dio comprende si la possibilità di creare ma anche quella di essere libero e responsabile. Quando, quindi, creiamo delle macchine simili all’uomo con l’idea di delegare ad esse alcune nostre funzioni o compiti sorge il problema se in questo modo pensiamo di scaricare alle macchine anche la responsabilità di quelle azioni: ad esempio se volessimo attribuire al robot i compiti di badante o di baby sitter trasferiamo loro anche le relative responsabilità? E che succede se la macchina si spegne? Chi risponde dell’eventuale danno o addirittura della morte? chi ha costruito il robot o chi l’ha utilizzato?

Ma oltre ai danni e alla responsabilità c’è un altro aspetto molto importante e rilevante per l’etica ed il pensiero ebraico. Creando dei sostituti di badanti, ad esempio, e delegando loro la cura e l’assistenza dei malati o dei vecchi si ha anche l’illusione di aver risolto il problema dell’assistenza, senonché in questa soluzione manca completamente l’empatia della relazione e della cura, ed è notorio che anche la sola visita (bikur Cholim visita ai malati precetto importantissimo per l’ebraismo) mette in moto forze e motivazioni importanti nella persona.

Concludendo questi brevi cenni, l’atteggiamento ebraico nei confronti della tecnica e dell’intelligenza artificiale è sicuramente favorevole, ma sempre nei limiti che fin dalla Genesi Dio assegna all’uomo e cioè quelli di conquistare la terra e dominare l’ambiente ma per proteggere conservare e migliorare le specie, non per distruggerle ed avendo sempre ben presente che il desiderio dell’uomo di creare qualcosa di simile all’essere umano porta con sé il rischio dell’Imitatio dei, cioè non l’uomo collaboratore di Dio ma l’uomo che si sostituisce a lui.

Intelligenza non è solo scrivere un codice né solo logica ma emotività, azione, relazione e le macchine di cui stiamo parlando più che robot dovrebbero essere cobot cioè macchine pensate non per sostituire l’uomo ma per collaborare con lui. Il focus fin da ora deve essere quello di cercare di definire i limiti per far sì che l’Intelligenza Artificiale si sviluppi pensando ad un futuro armonioso in cui essa sia a servizio dell’uomo. 

 

 

Ok
Questo website usa solamente cookies tecnici per il suo funzionamento. Maggiori dettagli