Per affrontare la sfida posta dall’intelligenza artificiale

La necessità
di una algoretica

 La necessità  di una algoretica  QUO-289
20 dicembre 2021

«Voglio chiedere, in nome di Dio,
ai giganti della tecnologia di smettere
di sfruttare la fragilità umana, le vulnerabilità
delle persone, per ottenere guadagni,
senza considerare come aumentano
i discorsi di odio, il grooming
[adescamento di minori in internet], le fake news [notizie false],
le teorie cospirative, la manipolazione politica»
 

PAPA FRANCESCO

(dal videomessaggio di Papa Francesco in occasione del IV Incontro mondiale dei movimenti popolari, 16 ottobre 2021)

Gli appelli del Papa
Lo scorso 16 ottobre Francesco ha rivolto un videomessaggio ai Movimenti Popolari contenente una serie di richieste introdotte dall’espressione: «Voglio chiedere, in nome di Dio...». Il Papa, valorizzando le istanze popolari, i corpi intermedi e gli “scartati” dal sistema, si è appellato a politici, industriali, uomini di cultura e in definitiva a tutti noi proponendo parole profetiche e obiettivi esigenti. I media vaticani, per approfondire le parole del Pontefice e proporre un confronto sui primi possibili passi concreti nella direzione da lui indicata, avviano un dibattito sui contenuti in quel discorso. Il francescano Paolo Benanti, esperto di etica, bioetica ed etica delle tecnologie, riflette sull’appello con il quale Francesco si rivolge ai giganti delle tecnologie per chiedere un cambio di direzione a favore del rispetto della persona umana.
 

Il digitale, internet e le intelligenze artificiali (Ai) stanno cambiando il mondo: ogni attività umana, dalla medicina alla sicurezza nazionale stanno subendo profonde trasformazioni. Questi sistemi non solo aiutano l’uomo ma in sempre maggiori situazioni danno luogo a sistemi, bot o robot, completamente autonomi.

Di fronte a questo diluvio è urgente la questione etica. Più l’innovazione digitale si fa pervasiva e in mano a pochi soggetti sempre più potenti più è necessario sviluppare un nuovo linguaggio universale che sappia gestire l’innovazione.

In particolare le intelligenze artificiali sono artefatti tecnologici. Ma differenti da tutti gli artefatti prodotti fino ad oggi. Tutti gli strumenti che abbiamo prodotto consentono all’uomo di svolgere alcuni compiti. Dalle clave primitive fino alle grandi macchine industriali tutti questi strumenti servivano a fare meglio più velocemente in maniera più efficace dei compiti precisi. Le Ai , tanto nei bot quanto nei robot, superano il concetto di artefatto e di macchina che conoscevamo fino adesso. Tutti i meccanismi automatici che abbiamo costruito durante la rivoluzione industriale sono stati costruiti pensando a quale sarebbe stato il loro scopo. Facevano quello per cui erano progettati e basta. Oggi le Ai non sono progettate così. Non sono software programmati ma sistemi addestrati. Si supera il modello classico if this then that in cui un ingegnere del software prevedeva prima tutte le possibili occorrenze. Le Ai rispondono in maniera autonoma a un problema che gli viene posto. Questi artefatti sono una nuova specie nelle macchine. Delle machine sapiens. Oggi il mondo non è più abitato solo dall’homo sapiens ma anche da machine sapiens. Ma come decide la machina sapiens?

I data scientist ci dicono che il problema è alla qualità e alla quantità dei dati. Quando avremo un database perfetto su cui far girare i nostri servizi di Ai la macchina farà scelte perfette. Ma è così? Già in passato abbiamo avuto questa impressione. Laplace sosteneva che qualora noi avessimo conosciuto la posizione in un istante di tutte le particelle che contengono l’universo saremmo stati in grado di predire tutto il futuro è di conoscere tutto il passato dell’universo. Lasciamo stare la domanda filosofica su questa possibilità e affrontiamola da un punto di vista operativo. Se fossimo in grado di creare una mappa che è l’esatta copia della realtà, includendo al suo interno tutto, compresi i passanti, le foglie degli alberi, ecc, dovremmo riconoscere che la mappa che abbiamo creato è inutile. Questa infatti sarebbe complessa come la realtà, troppo complessa per prendere le decisioni e quindi inutile.

Ci troveremmo cioè di fronte al noto paradosso raccontato da Jorge Luis Borges in un frammento Del rigore della scienza, l’ultimo di Storia universale dell’infamia pubblicato per la prima volta nel 1935. Come sua abitudine, l’autore argentino attribuisce la citazione a un libro che in realtà non esiste: «… In quell’Impero, l’Arte della Cartografia giunse a una tal Perfezione che la Mappa di una sola Provincia occupava tutta una Città, e la mappa dell’impero tutta una Provincia. Col tempo, queste Mappe smisurate non bastarono più. I Collegi dei Cartografi fecero una Mappa dell’Impero che aveva l’Immensità dell’Impero e coincideva perfettamente con esso (Suárez Miranda, Viajes de varones prudentes, libro iv , cap. xiv , Lérida, 1658)» (dall’edizione italiana de Il Saggiatore, 1961).

I dati sono una mappa della realtà, rappresentano una riduzione della realtà e per questo sono utili per prendere decisioni. Inoltre, le Ai lavorano sui database e sui sensori. Ma anche i sensori non leggono tutta la realtà: ne prendono solo una parte trasformandola in dati. Eccoci al punto chiave della questione. Siccome le intelligenze artificiali fondano loro decisioni sui dati e poiché questi non sono una coppia perfetta della realtà non è pensabile apriori che la macchina dotata di intelligenza artificiale possa fare una scelta priva di errori. La macchina sapiens sarà sempre e costitutivamente fallibile. Le A i hanno costitutivamente bisogno di un’etica. Poiché le intelligenze artificiali possono sbagliare bisogna capire come gestire allora questo sbaglio. La questione etica è fondamentale importantissima e urgente. Bisogna trovare un sistema etico condiviso perché l’utilizzo di questi sistemi non produca ingiustizie, non danneggi le persone e non crei dei forti disequilibri globali.

L’esistenza di macchine sapiens chiede di mettere in piedi un nuovo linguaggio universale che sappia tradurre queste direttrici etiche in delle direttive eseguibile dalla macchina. Ma come fare questo? Il mondo nell’epoca del Digital Age è regolato degli algoritmi. Più di qualcuno parla di una algocrazia. Per evitare che ci sia questo dominio dell’algoritmo anche grazie alle Ai dobbiamo iniziare a sviluppare questo linguaggio comune dell’algoretica.

Il problema è innanzitutto filosofico ed epistemologico. Le Ai “funzionano” secondo schemi che connettono dati. Che tipo di conoscenza è questa? Che valore ha? Come va trattata e considerata?

Insomma, la domanda prima che tecnologica è etica e filosofica: nella misura in cui vogliamo affidare competenze umane, di comprensione, di giudizio e di autonomia di azione a dei sistemi software di Ai dobbiamo capire il valore, in termini di conoscenza e capacità di azione, di questi sistemi che pretendono di essere intelligenti e cognitivi.

Per poter sviluppare un algoretica dobbiamo chiarire in che senso si parla di valore. Infatti gli algoritmi lavorano su valori di natura numerica. L’etica invece parla di valore morale. Dobbiamo stabilire un linguaggio che sappia tradurre il valore morale in un qualcosa di computabile per la macchina. La percezione del valore etico è una capacità puramente umana. La capacità di lavorare dei valori numerici è invece l’abilità della macchina. L’algoretica nasce se siamo in grado di trasformare in qualcosa di computabile il valore morale.

Ma nella relazione tra uomo e macchina il vero conoscitore e portatore di valore è la parte umana. La dignità umana e i diritti umani ci dicono che è l’uomo da proteggere nella relazione tra uomo in macchina. Questa evidenza ci fornisce l’imperativo etico fondamentale per la macchina sapiens: dubita di te stessa. Dobbiamo mettere in grado la macchina di avere un certo senso di incertezza. Tutte le volte che la macchina non sa se sta tutelando con certezza il valore umano deve richiedere l’azione dell’uomo. Questa direttiva fondamentale si ottiene introducendo dei paradigmi statistici all’interno delle Ai . Deve essere questa capacità di incertezza il cuore del decidere della macchina. Se la macchina ogni volta che si trova in una condizione di incertezza chiede all’uomo allora quello che stiamo realizzando è una intelligenza artificiale che pone l’umano al centro o come si suole dire tra i tecnici uno human-centered design. La norma fondamentale è quella che costruisce tutte le Ai in una maniera human-centered.

A partire da questa grammatica di base possiamo sviluppare un nuovo linguaggio universale: l’algoretica. Questo avrà una sua sintassi e svilupperà una sua letteratura. Non è questo il luogo né il momento per dire ogni cosa esprimibile con questa lingua però ci sembra di dover almeno fornire qualche esempio che ne riveli le potenzialità.

Anticipation — Quando due umani lavorano assieme, l’uno riesce ad anticipare e ad assecondare le azioni dell’altro intuendone le intenzioni. Questa competenza è alla base della duttilità che caratterizza la nostra specie: fin dai tempi antichi ha permesso all’uomo di organizzarsi. In un ambiente misto, anche le Ai devono essere in grado di intuire cosa gli uomini vogliono fare, e devono assecondare le loro intenzioni cooperando: la macchina deve adattarsi all’uomo, non viceversa.

Transparency — I robot funzionano comunemente secondo algoritmi di ottimizzazione: l’uso energetico dei loro servomotori, le traiettorie cinematiche e le velocità operative sono calcolate per essere il più possibile efficienti nel raggiungimento del loro scopo. Affinché l’uomo possa vivere assieme alla macchina, l’agire di quest’ultima dovrà essere intellegibile. L’obiettivo principale del robot non dev’essere l’ottimizzazione delle proprie azioni, bensì rendere il proprio agire comprensibile e intuibile per l’uomo.

Customization — Un robot, attraverso la Ai , si relaziona all’ambiente aggiustando il proprio comportamento. Lì dove uomo e macchina convivono, il robot deve essere in grado di adattarsi anche alla personalità dell’umano con cui coopera. L’homo sapiens è un essere emotivo; la macchina sapiens deve riconoscere e rispettare questa caratteristica unica e peculiare del suo partner di lavoro.

Adequation — Gli algoritmi di un robot ne determinano le linee di condotta. In un ambiente condiviso, il robot deve saper adeguare i propri fini osservando la persona e comprendendo così qual è l’obiettivo pertinente in ogni specifica situazione. La macchina deve, in altri termini, acquisire una “umiltà artificiale” per assegnare una priorità operativa alle persone presenti, e non al raggiungimento di un fine predeterminato.

Nell’epoca del digitale, il Digtal Age, con le Ai sempre più pervasive, questi quattro parametri sono un esempio di come tutelare la dignità della persona.

Oggi le Ai sono sviluppate o in una modalità market-driven o state-driven. Dobbiamo pensare altre modalità. Per esempio, sviluppando algoritmi di verifica indipendenti che sappiano certificare queste quattro capacità delle macchine. Oppure è possibile ipotizzare enti terzi indipendenti, che attraverso la scrittura di algoritmi dedicati siano in grado di valutare l’idoneità delle Ai alla convivenza con l’uomo. La «Rome Call for Ai » firmata a Roma nel 2020 è un primo passo in questa direzione. Solo rispettando queste indicazioni l’innovazione potrà essere guidata verso un autentico sviluppo umano.

 

di Paolo Benanti 
Professore straordinario presso
la Facoltà di Teologia
della Pontificia Università Gregoriana