· Città del Vaticano ·

Il messaggio del Papa per la LVII Giornata mondiale della pace

Intelligenza artificiale e pace

 Intelligenza artificiale e pace  QUO-286
14 dicembre 2023

Nella mattina di oggi, giovedì 14 dicembre, è stato presentato nella Sala stampa della Santa Sede — attualmente in via dell’Ospedale — il messaggio di Papa Francesco per la 57a Giornata mondiale della pace, che si celebrerà il prossimo 1° gennaio 2024 sul tema: «Intelligenza artificiale e pace». Di seguito pubblichiamo il testo del documento pontificio.

MESSAGGIO DI SUA SANTITÀ
FRANCESCO
PER LA LVII GIORNATA MONDIALE DELLA PACE

All’inizio del nuovo anno, tempo di grazia che il Signore dona a ciascuno di noi, vorrei rivolgermi al Popolo di Dio, alle nazioni, ai Capi di Stato e di Governo, ai Rappresentanti delle diverse religioni e della società civile, a tutti gli uomini e le donne del nostro tempo per porgere i miei auguri di pace.

1. Il progresso della scienza e della tecnologia come via verso la pace


La Sacra Scrittura attesta che Dio ha donato agli uomini il suo Spirito affinché abbiano «saggezza, intelligenza e scienza in ogni genere di lavoro» (Es 35, 31). L’intelligenza è espressione della dignità donataci dal Creatore, che ci ha fatti a sua immagine e somiglianza (cfr. Gen 1, 26) e ci ha messo in grado di rispondere al suo amore attraverso la libertà e la conoscenza. La scienza e la tecnologia manifestano in modo particolare tale qualità fondamentalmente relazionale dell’intelligenza umana: sono prodotti straordinari del suo potenziale creativo.

Nella Costituzione Pastorale Gaudium et spes, il Concilio Vaticano ii ha ribadito questa verità, dichiarando che «col suo lavoro e col suo ingegno l’uomo ha cercato sempre di sviluppare la propria vita» (1). Quando gli esseri umani, «con l’aiuto della tecnica», si sforzano affinché la terra «diventi una dimora degna di tutta la famiglia umana» (2), agiscono secondo il disegno di Dio e cooperano con la sua volontà di portare a compimento la creazione e di diffondere la pace tra i popoli. Anche il progresso della scienza e della tecnica, nella misura in cui contribuisce a un migliore ordine della società umana, ad accrescere la libertà e la comunione fraterna, porta dunque al miglioramento dell’uomo e alla trasformazione del mondo.

Giustamente ci rallegriamo e siamo riconoscenti per le straordinarie conquiste della scienza e della tecnologia, grazie alle quali si è posto rimedio a innumerevoli mali che affliggevano la vita umana e causavano grandi sofferenze. Allo stesso tempo, i progressi tecnico-scientifici, rendendo possibile l’esercizio di un controllo finora inedito sulla realtà, stanno mettendo nelle mani dell’uomo una vasta gamma di possibilità, alcune delle quali possono rappresentare un rischio per la sopravvivenza e un pericolo per la casa comune (3).

I notevoli progressi delle nuove tecnologie dell’informazione, specialmente nella sfera digitale, presentano dunque entusiasmanti opportunità e gravi rischi, con serie implicazioni per il perseguimento della giustizia e dell’armonia tra i popoli. È pertanto necessario porsi alcune domande urgenti. Quali saranno le conseguenze, a medio e a lungo termine, delle nuove tecnologie digitali? E quale impatto avranno sulla vita degli individui e della società, sulla stabilità internazionale e sulla pace?

2. Il futuro dell’intelligenza artificiale tra promesse e rischi


I progressi dell’informatica e lo sviluppo delle tecnologie digitali negli ultimi decenni hanno già iniziato a produrre profonde trasformazioni nella società globale e nelle sue dinamiche. I nuovi strumenti digitali stanno cambiando il volto delle comunicazioni, della pubblica amministrazione, dell’istruzione, dei consumi, delle interazioni personali e di innumerevoli altri aspetti della vita quotidiana.

Inoltre, le tecnologie che impiegano una molteplicità di algoritmi possono estrarre, dalle tracce digitali lasciate su internet, dati che consentono di controllare le abitudini mentali e relazionali delle persone a fini commerciali o politici, spesso a loro insaputa, limitandone il consapevole esercizio della libertà di scelta. Infatti, in uno spazio come il web, caratterizzato da un sovraccarico di informazioni, possono strutturare il flusso di dati secondo criteri di selezione non sempre percepiti dall’utente.

Dobbiamo ricordare che la ricerca scientifica e le innovazioni tecnologiche non sono disincarnate dalla realtà e «neutrali» (4), ma soggette alle influenze culturali. In quanto attività pienamente umane, le direzioni che prendono riflettono scelte condizionate dai valori personali, sociali e culturali di ogni epoca. Dicasi lo stesso per i risultati che conseguono: essi, proprio in quanto frutto di approcci specificamente umani al mondo circostante, hanno sempre una dimensione etica, strettamente legata alle decisioni di chi progetta la sperimentazione e indirizza la produzione verso particolari obiettivi.

Questo vale anche per le forme di intelligenza artificiale. Di essa, ad oggi, non esiste una definizione univoca nel mondo della scienza e della tecnologia. Il termine stesso, ormai entrato nel linguaggio comune, abbraccia una varietà di scienze, teorie e tecniche volte a far sì che le macchine riproducano o imitino, nel loro funzionamento, le capacità cognitive degli esseri umani. Parlare al plurale di “forme di intelligenza” può aiutare a sottolineare soprattutto il divario incolmabile che esiste tra questi sistemi, per quanto sorprendenti e potenti, e la persona umana: essi sono, in ultima analisi, “frammentari”, nel senso che possono solo imitare o riprodurre alcune funzioni dell’intelligenza umana. L’uso del plurale evidenzia inoltre che questi dispositivi, molto diversi tra loro, vanno sempre considerati come “sistemi socio-tecnici”. Infatti il loro impatto, al di là della tecnologia di base, dipende non solo dalla progettazione, ma anche dagli obiettivi e dagli interessi di chi li possiede e di chi li sviluppa, nonché dalle situazioni in cui vengono impiegati.

L’intelligenza artificiale, quindi, deve essere intesa come una galassia di realtà diverse e non possiamo presumere a priori che il suo sviluppo apporti un contributo benefico al futuro dell’umanità e alla pace tra i popoli. Tale risultato positivo sarà possibile solo se ci dimostreremo capaci di agire in modo responsabile e di rispettare valori umani fondamentali come «l’inclusione, la trasparenza, la sicurezza, l’equità, la riservatezza e l’affidabilità» (5).

Non è sufficiente nemmeno presumere, da parte di chi progetta algoritmi e tecnologie digitali, un impegno ad agire in modo etico e responsabile. Occorre rafforzare o, se necessario, istituire organismi incaricati di esaminare le questioni etiche emergenti e di tutelare i diritti di quanti utilizzano forme di intelligenza artificiale o ne sono influenzati (6).

L’immensa espansione della tecnologia deve quindi essere accompagnata da un’adeguata formazione alla responsabilità per il suo sviluppo. La libertà e la convivenza pacifica sono minacciate quando gli esseri umani cedono alla tentazione dell’egoismo, dell’interesse personale, della brama di profitto e della sete di potere. Abbiamo perciò il dovere di allargare lo sguardo e di orientare la ricerca tecnico-scientifica al perseguimento della pace e del bene comune, al servizio dello sviluppo integrale dell’uomo e della comunità (7).

La dignità intrinseca di ogni persona e la fraternità che ci lega come membri dell’unica famiglia umana devono stare alla base dello sviluppo di nuove tecnologie e servire come criteri indiscutibili per valutarle prima del loro impiego, in modo che il progresso digitale possa avvenire nel rispetto della giustizia e contribuire alla causa della pace. Gli sviluppi tecnologici che non portano a un miglioramento della qualità di vita di tutta l’umanità, ma al contrario aggravano le disuguaglianze e i conflitti, non potranno mai essere considerati vero progresso (8).

L’intelligenza artificiale diventerà sempre più importante. Le sfide che pone sono tecniche, ma anche antropologiche, educative, sociali e politiche. Promette, ad esempio, un risparmio di fatiche, una produzione più efficiente, trasporti più agevoli e mercati più dinamici, oltre a una rivoluzione nei processi di raccolta, organizzazione e verifica dei dati. Occorre essere consapevoli delle rapide trasformazioni in atto e gestirle in modo da salvaguardare i diritti umani fondamentali, rispettando le istituzioni e le leggi che promuovono lo sviluppo umano integrale. L’intelligenza artificiale dovrebbe essere al servizio del migliore potenziale umano e delle nostre più alte aspirazioni, non in competizione con essi.

3. La tecnologia del futuro: macchine che imparano da sole


Nelle sue molteplici forme l’intelligenza artificiale, basata su tecniche di apprendimento automatico (machine learning), pur essendo ancora in fase pionieristica, sta già introducendo notevoli cambiamenti nel tessuto delle società, esercitando una profonda influenza sulle culture, sui comportamenti sociali e sulla costruzione della pace.

Sviluppi come il machine learning o come l’apprendimento profondo (deep learning) sollevano questioni che trascendono gli ambiti della tecnologia e dell’ingegneria e hanno a che fare con una comprensione strettamente connessa al significato della vita umana, ai processi basilari della conoscenza e alla capacità della mente di raggiungere la verità.

L’abilità di alcuni dispositivi nel produrre testi sintatticamente e semanticamente coerenti, ad esempio, non è garanzia di affidabilità. Si dice che possano “allucinare”, cioè generare affermazioni che a prima vista sembrano plausibili, ma che in realtà sono infondate o tradiscono pregiudizi. Questo pone un serio problema quando l’intelligenza artificiale viene impiegata in campagne di disinformazione che diffondono notizie false e portano a una crescente sfiducia nei confronti dei mezzi di comunicazione. La riservatezza, il possesso dei dati e la proprietà intellettuale sono altri ambiti in cui le tecnologie in questione comportano gravi rischi, a cui si aggiungono ulteriori conseguenze negative legate a un loro uso improprio, come la discriminazione, l’interferenza nei processi elettorali, il prendere piede di una società che sorveglia e controlla le persone, l’esclusione digitale e l’inasprimento di un individualismo sempre più scollegato dalla collettività. Tutti questi fattori rischiano di alimentare i conflitti e di ostacolare la pace.

4. Il senso del limite nel paradigma tecnocratico


Il nostro mondo è troppo vasto, vario e complesso per essere completamente conosciuto e classificato. La mente umana non potrà mai esaurirne la ricchezza, nemmeno con l’aiuto degli algoritmi più avanzati. Questi, infatti, non offrono previsioni garantite del futuro, ma solo approssimazioni statistiche. Non tutto può essere pronosticato, non tutto può essere calcolato; alla fine «la realtà è superiore all’idea» (9) e, per quanto prodigiosa possa essere la nostra capacità di calcolo, ci sarà sempre un residuo inaccessibile che sfugge a qualsiasi tentativo di misurazione.

Inoltre, la grande quantità di dati analizzati dalle intelligenze artificiali non è di per sé garanzia di imparzialità. Quando gli algoritmi estrapolano informazioni, corrono sempre il rischio di distorcerle, replicando le ingiustizie e i pregiudizi degli ambienti in cui esse hanno origine. Più diventano veloci e complessi, più è difficile comprendere perché abbiano prodotto un determinato risultato.

Le macchine “intelligenti” possono svolgere i compiti loro assegnati con sempre maggiore efficienza, ma lo scopo e il significato delle loro operazioni continueranno a essere determinati o abilitati da esseri umani in possesso di un proprio universo di valori. Il rischio è che i criteri alla base di certe scelte diventino meno chiari, che la responsabilità decisionale venga nascosta e che i produttori possano sottrarsi all’obbligo di agire per il bene della comunità. In un certo senso, ciò è favorito dal sistema tecnocratico, che allea l’economia con la tecnologia e privilegia il criterio dell’efficienza, tendendo a ignorare tutto ciò che non è legato ai suoi interessi immediati (10).

Questo deve farci riflettere su un aspetto tanto spesso trascurato nella mentalità attuale, tecnocratica ed efficientista, quanto decisivo per lo sviluppo personale e sociale: il “senso del limite”. L’essere umano, infatti, mortale per definizione, pensando di travalicare ogni limite in virtù della tecnica, rischia, nell’ossessione di voler controllare tutto, di perdere il controllo su sé stesso; nella ricerca di una libertà assoluta, di cadere nella spirale di una dittatura tecnologica. Riconoscere e accettare il proprio limite di creatura è per l’uomo condizione indispensabile per conseguire, o meglio, accogliere in dono la pienezza. Invece, nel contesto ideologico di un paradigma tecnocratico, animato da una prometeica presunzione di autosufficienza, le disuguaglianze potrebbero crescere a dismisura, e la conoscenza e la ricchezza accumularsi nelle mani di pochi, con gravi rischi per le società democratiche e la coesistenza pacifica (11).

5. Temi scottanti per l’etica


In futuro, l’affidabilità di chi richiede un mutuo, l’idoneità di un individuo ad un lavoro, la possibilità di recidiva di un condannato o il diritto a ricevere asilo politico o assistenza sociale potrebbero essere determinati da sistemi di intelligenza artificiale. La mancanza di diversificati livelli di mediazione che questi sistemi introducono è particolarmente esposta a forme di pregiudizio e discriminazione: gli errori sistemici possono facilmente moltiplicarsi, producendo non solo ingiustizie in singoli casi ma anche, per effetto domino, vere e proprie forme di disuguaglianza sociale.

Talvolta, inoltre, le forme di intelligenza artificiale sembrano in grado di influenzare le decisioni degli individui attraverso opzioni predeterminate associate a stimoli e dissuasioni, oppure mediante sistemi di regolazione delle scelte personali basati sull’organizzazione delle informazioni. Queste forme di manipolazione o di controllo sociale richiedono un’attenzione e una supervisione accurate, e implicano una chiara responsabilità legale da parte dei produttori, di chi le impiega e delle autorità governative.

L’affidamento a processi automatici che categorizzano gli individui, ad esempio attraverso l’uso pervasivo della vigilanza o l’adozione di sistemi di credito sociale, potrebbe avere ripercussioni profonde anche sul tessuto civile, stabilendo improprie graduatorie tra i cittadini. E questi processi artificiali di classificazione potrebbero portare anche a conflitti di potere, non riguardando solo destinatari virtuali, ma persone in carne ed ossa. Il rispetto fondamentale per la dignità umana postula di rifiutare che l’unicità della persona venga identificata con un insieme di dati. Non si deve permettere agli algoritmi di determinare il modo in cui intendiamo i diritti umani, di mettere da parte i valori essenziali della compassione, della misericordia e del perdono o di eliminare la possibilità che un individuo cambi e si lasci alle spalle il passato.

In questo contesto non possiamo fare a meno di considerare l’impatto delle nuove tecnologie in ambito lavorativo: mansioni che un tempo erano appannaggio esclusivo della manodopera umana vengono rapidamente assorbite dalle applicazioni industriali dell’intelligenza artificiale. Anche in questo caso, c’è il rischio sostanziale di un vantaggio sproporzionato per pochi a scapito dell’impoverimento di molti. Il rispetto della dignità dei lavoratori e l’importanza dell’occupazione per il benessere economico delle persone, delle famiglie e delle società, la sicurezza degli impieghi e l’equità dei salari dovrebbero costituire un’alta priorità per la Comunità internazionale, mentre queste forme di tecnologia penetrano sempre più profondamente nei luoghi di lavoro.

6. Trasformeremo le spade in vomeri?


In questi giorni, guardando il mondo che ci circonda, non si può sfuggire alle gravi questioni etiche legate al settore degli armamenti. La possibilità di condurre operazioni militari attraverso sistemi di controllo remoto ha portato a una minore percezione della devastazione da essi causata e della responsabilità del loro utilizzo, contribuendo a un approccio ancora più freddo e distaccato all’immensa tragedia della guerra. La ricerca sulle tecnologie emergenti nel settore dei cosiddetti “sistemi d’arma autonomi letali”, incluso l’utilizzo bellico dell’intelligenza artificiale, è un grave motivo di preoccupazione etica. I sistemi d’arma autonomi non potranno mai essere soggetti moralmente responsabili: l’esclusiva capacità umana di giudizio morale e di decisione etica è più di un complesso insieme di algoritmi, e tale capacità non può essere ridotta alla programmazione di una macchina che, per quanto “intelligente”, rimane pur sempre una macchina. Per questo motivo, è imperativo garantire una supervisione umana adeguata, significativa e coerente dei sistemi d’arma.

Non possiamo nemmeno ignorare la possibilità che armi sofisticate finiscano nelle mani sbagliate, facilitando, ad esempio, attacchi terroristici o interventi volti a destabilizzare istituzioni di governo legittime. Il mondo, insomma, non ha proprio bisogno che le nuove tecnologie contribuiscano all’iniquo sviluppo del mercato e del commercio delle armi, promuovendo la follia della guerra. Così facendo, non solo l’intelligenza, ma il cuore stesso dell’uomo, correrà il rischio di diventare sempre più “artificiale”. Le più avanzate applicazioni tecniche non vanno impiegate per agevolare la risoluzione violenta dei conflitti, ma per pavimentare le vie della pace.

In un’ottica più positiva, se l’intelligenza artificiale fosse utilizzata per promuovere lo sviluppo umano integrale, potrebbe introdurre importanti innovazioni nell’agricoltura, nell’istruzione e nella cultura, un miglioramento del livello di vita di intere nazioni e popoli, la crescita della fraternità umana e dell’amicizia sociale. In definitiva, il modo in cui la utilizziamo per includere gli ultimi, cioè i fratelli e le sorelle più deboli e bisognosi, è la misura rivelatrice della nostra umanità.

Uno sguardo umano e il desiderio di un futuro migliore per il nostro mondo portano alla necessità di un dialogo interdisciplinare finalizzato a uno sviluppo etico degli algoritmi — l’algor-etica —, in cui siano i valori a orientare i percorsi delle nuove tecnologie (12). Le questioni etiche dovrebbero essere tenute in considerazione fin dall’inizio della ricerca, così come nelle fasi di sperimentazione, progettazione, produzione, distribuzione e commercializzazione. Questo è l’approccio dell’etica della progettazione, in cui le istituzioni educative e i responsabili del processo decisionale hanno un ruolo essenziale da svolgere.

7. Sfide per l’educazione


Lo sviluppo di una tecnologia che rispetti e serva la dignità umana ha chiare implicazioni per le istituzioni educative e per il mondo della cultura. Moltiplicando le possibilità di comunicazione, le tecnologie digitali hanno permesso di incontrarsi in modi nuovi. Tuttavia, rimane la necessità di una riflessione continua sul tipo di relazioni a cui ci stanno indirizzando. I giovani stanno crescendo in ambienti culturali pervasi dalla tecnologia e questo non può non mettere in discussione i metodi di insegnamento e formazione.

L’educazione all’uso di forme di intelligenza artificiale dovrebbe mirare soprattutto a promuovere il pensiero critico. È necessario che gli utenti di ogni età, ma soprattutto i giovani, sviluppino una capacità di discernimento nell’uso di dati e contenuti raccolti sul web o prodotti da sistemi di intelligenza artificiale. Le scuole, le università e le società scientifiche sono chiamate ad aiutare gli studenti e i professionisti a fare propri gli aspetti sociali ed etici dello sviluppo e dell’utilizzo della tecnologia.

La formazione all’uso dei nuovi strumenti di comunicazione dovrebbe tenere conto non solo della disinformazione, delle fake news, ma anche dell’inquietante recrudescenza di «paure ancestrali [...] che hanno saputo nascondersi e potenziarsi dietro nuove tecnologie» (13). Purtroppo, ancora una volta ci troviamo a dover combattere “la tentazione di fare una cultura dei muri, di alzare muri per impedire l’incontro con altre culture, con altra gente” (14) e lo sviluppo di una coesistenza pacifica e fraterna.

8. Sfide per lo sviluppo del diritto internazionale


La portata globale dell’intelligenza artificiale rende evidente che, accanto alla responsabilità degli Stati sovrani di disciplinarne l’uso al proprio interno, le Organizzazioni internazionali possono svolgere un ruolo decisivo nel raggiungere accordi multilaterali e nel coordinarne l’applicazione e l’attuazione (15). A tale proposito, esorto la Comunità delle nazioni a lavorare unita al fine di adottare un trattato internazionale vincolante, che regoli lo sviluppo e l’uso dell’intelligenza artificiale nelle sue molteplici forme. L’obiettivo della regolamentazione, naturalmente, non dovrebbe essere solo la prevenzione delle cattive pratiche, ma anche l’incoraggiamento delle buone pratiche, stimolando approcci nuovi e creativi e facilitando iniziative personali e collettive (16).

In definitiva, nella ricerca di modelli normativi che possano fornire una guida etica agli sviluppatori di tecnologie digitali, è indispensabile identificare i valori umani che dovrebbero essere alla base dell’impegno delle società per formulare, adottare e applicare necessari quadri legislativi. Il lavoro di redazione di linee guida etiche per la produzione di forme di intelligenza artificiale non può prescindere dalla considerazione di questioni più profonde riguardanti il significato dell’esistenza umana, la tutela dei diritti umani fondamentali, il perseguimento della giustizia e della pace. Questo processo di discernimento etico e giuridico può rivelarsi un’occasione preziosa per una riflessione condivisa sul ruolo che la tecnologia dovrebbe avere nella nostra vita individuale e comunitaria e su come il suo utilizzo possa contribuire alla creazione di un mondo più equo e umano. Per questo motivo, nei dibattiti sulla regolamentazione dell’intelligenza artificiale, si dovrebbe tenere conto della voce di tutte le parti interessate, compresi i poveri, gli emarginati e altri che spesso rimangono inascoltati nei processi decisionali globali.

* * * * *

Spero che questa riflessione incoraggi a far sì che i progressi nello sviluppo di forme di intelligenza artificiale servano, in ultima analisi, la causa della fraternità umana e della pace. Non è responsabilità di pochi, ma dell’intera famiglia umana. La pace, infatti, è il frutto di relazioni che riconoscono e accolgono l’altro nella sua inalienabile dignità, e di cooperazione e impegno nella ricerca dello sviluppo integrale di tutte le persone e di tutti i popoli.

La mia preghiera all’inizio del nuovo anno è che il rapido sviluppo di forme di intelligenza artificiale non accresca le troppe disuguaglianze e ingiustizie già presenti nel mondo, ma contribuisca a porre fine a guerre e conflitti, e ad alleviare molte forme di sofferenza che affliggono la famiglia umana. Possano i fedeli cristiani, i credenti di varie religioni e gli uomini e le donne di buona volontà collaborare in armonia per cogliere le opportunità e affrontare le sfide poste dalla rivoluzione digitale, e consegnare alle generazioni future un mondo più solidale, giusto e pacifico.

Dal Vaticano, 8 dicembre 2023

FRANCESCO


1 N. 33.

2 Ibid., 57.

3 Cfr. Lett. enc. Laudato si’ (24 maggio 2015), 104.

4 Cfr. ibid., 114.

5 Udienza ai partecipanti all’Incontro “Minerva Dialogues” (27 marzo 2023).

6 Cfr. ibid.

7 Cfr. Messaggio al Presidente Esecutivo del “World Economic Forum” a Davos-Klosters (12 gennaio 2018).

8 Cfr. Lett. enc. Laudato si’, 194; Discorso ai partecipanti al Seminario “Il bene comune nell’era digitale” (27 settembre 2019).

9 Esort. ap. Evangelii gaudium (24 novembre 2013), 233.

10 Cfr. Lett. enc. Laudato si’, 54.

11 Cfr. Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita (28 febbraio 2020).

12 Cfr. ibid.

13 Lett. enc. Fratelli tutti (3 ottobre 2020), 27.

14 Cfr. ibid.

15 Cfr. ibid., 170-175.

16 Cfr. Lett. enc. Laudato si’, 177.


I rischi di una tecnocrazia governata
da profitto e interessi di parte


Papa Francesco scorge nel progresso dell’intelligenza artificiale (Ia) un “segno dei tempi”: un tratto distintivo «del presente, in continuo cambiamento e che lascia presagire maggiori trasformazioni in futuro». Lo ha sottolineato il cardinale Michael Czerny, prefetto del Dicastero per il servizio dello sviluppo umano integrale, illustrando il messaggio del Pontefice per la 57a Giornata mondiale della pace, che si celebra il 1° gennaio 2024. La presentazione si è svolta questa mattina, giovedì 14 dicembre, nella Sala stampa della Santa Sede, attualmente in via dell’Ospedale 1.

L’espressione “segno dei tempi”, ha evidenziato il porporato, «indica una nuova realtà umana che emerge da ciò che sta accadendo intorno a noi, che la Chiesa interpreta alla luce del Vangelo, e nella quale noi riconosciamo la buona novella del Regno di Dio venirci incontro». E in quanto segno dei tempi, l’Ia, «non meno di qualsiasi altra espressione dell’ingegno umano, necessita di un’attenta disamina per assicurarsi che sia davvero al servizio del bene comune, che protegga il valore inalienabile della persona umana e che promuova i nostri diritti fondamentali». Essa, in un certo senso, fa parte «del territorio umano che il Figlio di Dio ha preso su di sé al momento dell’Incarnazione». L’umanità di Cristo «non è parziale, e quindi la Chiesa insiste nell’applicare all’intelligenza artificiale la stessa lente del bene comune e della dignità umana che applica a qualsiasi altra cosa». 

Le intelligenze artificiali, ha spiegato il cardinale prefetto, «esercitano già una grande influenza e continueranno a farlo». Non si può prevedere, «difficilmente immaginare, le nuove applicazioni e il loro impatto sulla vita personale e sociale, nella politica e nell’economia, nella cultura e sull’ambiente». Dunque, dal momento che «non sappiamo dove l’intelligenza artificiale condurrà la famiglia umana, tutti hanno bisogno di essere meglio informati sugli sviluppi man mano che si verificano per esprimere pareri e assumersi responsabilità». 

Il Papa, ha fatto notare Czerny, «prende atto positivamente del contributo dato all’umanità dal progresso scientifico e tecnologico. Queste conquiste si sono dimostrate preziose al servizio delle persone, della loro dignità e dei loro diritti». Al contempo, non si dovrebbe paragonare «il progresso tecno-scientifico a uno strumento “neutrale” come il martello: se un martello contribuisce al bene o al male dipende dalle intenzioni di chi lo usa, non da quelle di chi lo produce». Le tecnologie digitali basate sull’intelligenza artificiale, invece, «“incorporano” i valori individuali e sociali dei loro creatori; successivamente esse riflettono anche i valori dei loro utilizzatori». In questo senso, Papa Francesco denuncia il “paradigma tecnocratico”, «un uso spregiudicato della tecnologia, esclusivamente governato dalla brama di profitto e da interessi di parte». Se è il paradigma tecnocratico «l’unica regola che governa l’intelligenza artificiale, questo finirà per causare danni collaterali inauditi: disuguaglianze, ingiustizie, tensioni conflitti». Pertanto, le sfide poste sono tecniche, ma anche antropologiche, educative, sociali e politiche.

Ciò che più spaventa, ha sottolineato Czerny, «è l’uso delle intelligenze artificiali ai fini della guerra. Oltre ad essere sempre più sofisticate e distruttive, queste tolgono la responsabilità umana dalla scena della battaglia. In definitiva, nessuno preme il grilletto o fa cadere la bomba, solo un algoritmo». L’Ia,  inoltre,  può anche «minacciare la giustizia sociale. Nel mondo del lavoro, ad esempio, le “macchine della conoscenza” e la robotica stanno eliminando sempre più posti di lavoro, con un forte aumento della povertà». Per quanto riguarda poi l’informazione, «ci sono nuovi modi per distorcere deliberatamente le parole e le immagini, per disinformare e manipolare, e questi seriamente mettono in pericolo l’ordine civile e il governo democratico».

Di fronte a tali preoccupanti scenari l’educazione, come sottolinea il Papa, diventa  fondamentale: «formare coloro che progettano gli algoritmi e le tecnologie digitali affinché siano essi stessi più responsabili; poi educare tutti, soprattutto i giovani, a usare le nuove tecnologie in modo consapevole e al pensiero critico rispetto al loro impatto, soprattutto sui poveri e sull’ambiente».

Al cardinale Czerny ha fatto eco il domenicano Riccardo Lufrani, professore di Teologia delle tecnoscienze e di Teologia morale presso la Lumsa, il quale ha sottolineato come il messaggio di Papa Francesco si apra riaffermando l’alta dignità che Dio concede all’uomo, chiamandolo a partecipare al governo dell’universo e dotandolo «della capacità di trasformare il mondo, come ricorda Francesco citando la Gaudium et spes. Questa capacità si fa sempre più efficace con il progresso delle scienze e delle tecniche, che accresce il potere di dominio dell’uomo sulla natura e gli permette di costruire sempre più efficacemente la realtà storica».

Da anni Papa Francesco «avverte che stiamo vivendo un cambiamento d’epoca: l’uomo sta trasformando la realtà storica e naturale in modo radicale». Tuttavia, gli effetti di questa trasformazione non sono univoci: «il miglioramento generale delle condizioni di vita dell’umanità, sottolinea infatti il Pontefice, va di pari passo con crescenti destabilizzazioni e disuguaglianze che minano la pacifica convivenza».

Dopo aver elencato le criticità legate all’intelligenza artificiale, il Papa nel messaggio «ne prospetta l’uso al servizio dello sviluppo umano integrale». Per Lufrani la certezza che «tutto concorre al bene di chi ama Dio» sprona ad accogliere l’invito del Pontefice «a comprendere il ruolo provvidenziale dell’intelligenza artificiale, per metterla al servizio del disegno divino di “ricapitolare in Cristo tutte le cose, quelle del cielo come quelle della terra”». Insieme alla filosofia “artificiale” si è chiamati, quindi, «a sviluppare la teologia delle tecno-scienze, in modo da poter considerare la realtà nella sua uni-totalità, ed agire consapevolmente in armonia con l’opera salvifica di Dio».

Ha preso quindi la parola Barbara Caputo, ordinaria presso il Politecnico di Torino, co-fondatrice e presidentessa di Focoos.ai, la quale ha fatto notare quanto sia enorme la responsabilità di «impegnarsi per garantire uguali opportunità a tutte le persone che si avvicinano all’intelligenza artificiale per imparare». Questo significa lavorare «per garantire risorse computazionali adeguate: insegnare intelligenza artificiale, in particolare intelligenza artificiale generativa, è profondamente diverso avendo o meno la possibilità di far fare esercitazioni pratiche di implementazione, addestramento e utilizzo degli algoritmi». Il livello di comprensione dell’argomento e «le competenze che è quindi possibile acquisire, cambiano radicalmente avendo o meno la possibilità di farne esperienza pratica». Purtroppo, ha osservato Caputo, oggi sono troppo pochi gli atenei nel mondo dove gli studenti possono usufruire di infrastrutture computazionali adeguate per l’Ia.

Infine, Mathieu Guillermin, associato presso l’Université Catholique de Lyon e coordinatore del progetto internazionale “New Humanism at the time of Neuroscience and Artificial Intelligence”, ha evidenziato come Papa Francesco condivida un messaggio di speranza, oltre che un appello all’impegno e alla responsabilità. Un messaggio di speranza perché, «lungi da qualsiasi rifiuto tecnofobico, riconosce il grande potenziale positivo dell’Ia». Ma anche un appello «all’impegno e alla responsabilità, poiché nulla garantisce a priori che i risultati dell’Ia saranno positivi». È responsabilità collettiva riconoscere «il pungolo etico» (Laudato si’, 29), per garantire che l’Ia «contribuisca a un maggiore ordine nella società umana e a una maggiore comunione fraterna e libertà», e che serva «il nostro migliore potenziale umano e le nostre più alte aspirazioni, senza competere con essi».