Etica, valori e limiti

Padre Paolo Benanti

Padre Paolo Benanti, della Pontificia Università Gregoriana, ci illustra il suo pensiero riguardo l'etica, i valori e i limiti dell'intelligenza artificiale.
Quando facciamo surrogare un processo decisionale ad un'intelligenza artificiale, dobbiamo chiederci che cosa accada o cosa possa accadere quando l'esito non è quello che attendevamo. Oggi noi siamo abituati al fatto che le persone assumono con dei ruoli e degli incarichi, anche dei profili di responsabilità: l'eventuale autista di un autobus che dovesse essere coinvolto in un incidente, ha un profilo di responsabilità a seconda di chi è la colpa. Ma se noi automatizzassimo questi processi, questo concetto di responsabilità su chi deve ricadere? Su chi ha fatto il sistema di intelligenza artificiale? Su chi l'ha applicato a quel determinato contesto, cioè su chi ha trasformato magari un algoritmo, per riconoscere le immagini in un sistema di guida autonoma per quel veicolo? Su chi era a bordo e controllava quel veicolo? Ecco domande nuove rispetto alle quali non siamo abituati ad avere una risposta, soprattutto a causa dell'enorme velocità con cui le intelligenze artificiali stanno aggredendo il mercato.

Da questo punto di vista ci siamo trovati di fronte alla necessità di definire nuovi elementi. La tendenza che abbiamo al momento è dire, lavorando in analogia con quanto è successo in passato con altre forme di tecnologia, che, come quando abbiamo sviluppato un'automobile, cioè uno strumento che cammina più veloce di un essere umano, abbiamo messo a terra una cosa che si chiama "codice della strada" per evitare incidenti: così dovremmo fare con delle forme di di regolamentazione che possano creare una sorta di "guardrail legali ed etici" perché questa macchina non vada fuori strada.

Ma a un certo punto ci siamo anche resi conto che i veicoli sulla strada dovevano poter essere identificabili per poter in qualche misura legare la responsabilità ad un proprietario e stiamo cercando di capire se i prodotti dell'intelligenza artificiale in qualche misura non dovrebbero avere una sorta di targa, di identificativo unico, che ci consenta di riconoscerli come tali.
Infine ci siamo chiesti se tutti potevano guidare un'automobile o se non era piuttosto il caso di avere come possibili guidatori solo coloro che erano in grado di dimostrare di saper gestire il mezzo: abbiamo introdotto la patente. A questo non abbiamo ancora risposto.

Possiamo tutti utilizzare le intelligenze artificiali o dovremmo chiedere semplicemente a chi ha superato un corso, ha dimostrato di avere alcune capacità di controllo di poter utilizzare questi mezzi? Se noi pensiamo a quello che è successo in medicina, quando abbiamo iniziato ad usare il microscopio, questo è diventato fondamentale per permettere al medico di riconoscere un tipo di tessuto rispetto a un'altro, abbiamo reso obbligatorio, per essere medici, la capacità di avere questa capacità di gestire uno strumento e di non, per esempio, farsi ingannare da un fenomeno strano come la diffrazione ottica delle lenti.

Per i futuri medici che utilizzeranno l'intelligenza artificiale dobbiamo pensare qualcosa di analogo? Dobbiamo pensare di renderli in grado di non essere ingannati da eventuali diffrazioni digitali dello strumento? In questo momento abbiamo più domande che risposte, ma come diceva Rainer Maria Rilke in "Lettere a un giovane poeta", vivere ora le domande è quello che ci consente poi di affrontare questa innovazione trovando delle risposte che ci mantengano pienamente umani.