02 December 2019

Tre domande sull’etica dell’Intelligenza Artificiale

    Written by

  • Paolo Benanti

Paolo Benanti rappresenta una figura intellettuale atipica: teologo del Terzo ordine regolare di San Francesco, si occupa di bioetica ed etica delle nuove tecnologie presso la Pontificia Università Gregoriana, concentrandosi sugli impatti della trasformazione digitale, le biotecnologie per lo human enhancement e le neuroscienze. Dal 2018, Benanti fa parte del gruppo di trenta esperti del Ministero dello Sviluppo Economico per elaborare la strategia nazionale sull'intelligenza artificiale. Intervenuto durante l’assemblea plenaria della Conferenza sullo Statuto Etico e Giuridico del 21 e 22 novembre, ha posto a Fondazione Leonardo tre domande.

Ci sono diverse prospettive sulla tecnologia: Umberto Eco, ad esempio, parlava di apocalittici e integrati. La prima questione che voglio porre è quella della nostra relazione con qualcosa di altro da noi come la tecnologia. L’umanità è l’unica specie che non muta e non gestisce sé stessa solo tramite le proprie capacità genetiche. Il nostro essere è sempre in relazione con la tecnologia, al punto che possiamo considerare la relazione con la tecnologia come qualcosa di profondamente umano. Oggi questa tecnologia è nuova rispetto al passato: abbiamo perso il manicum, quella parte dell’artefatto tecnologico che era in relazione con la mano e la struttura logica del controllo umano. Una volta il programmatore prevedeva a priori tutte le circostanze in cui la macchina si sarebbe potuta trovare e le sue risposte. Questo è stato soppiantato oggi da una nuova modalità, in cui la macchina impara e reagisce in una maniera che è più o meno prevedibile, più o meno esplicabile. La prima domanda che pongo, in primo luogo a me stesso, è la seguente: siamo di fronte per la prima volta ad una nuova specie di sapiens sulla terra, la macchina sapiens? E se rimaniamo all’interno di questa metafora, ovviamente provocatoria, siamo all’interno di una lotta darwinistica, o è possibile pensare ad una correlazione simbiotica tra noi e loro: homo più macchina sapiens? Questa è già una domanda politica, perché è una domanda che struttura il modo in cui affrontiamo il domani.

La seconda domanda la voglio introdurre attraverso un aneddoto, una delle tante storie di guerra del secondo conflitto mondiale. La storia è quella del matematico e statistico ungherese Abraham Wald, che ha combattuto con l’esercito degli Stati Uniti - non sul fronte di battaglia - ma dentro lo Statistical Research Group (SRG) della Columbia University. Gli americani avevano capito presto che non avrebbe vinto la guerra chi aveva più eroi, ma chi sapeva gestire meglio le proprie risorse. Abraham Wald aveva come compito quello di capire dove corazzare gli aeroplani e l’esercito gli aveva fornito delle mappature dei fori di proiettile per pollice quadrato delle fusoliere di tutti gli aerei che tornavano alla base. Corazzare un aereo ha il pregio di farlo resistere, ma ha l’inconveniente di inficiarne la portanza. L’idea era di procedere a corazzare soltanto le sezioni dove statisticamente erano presenti più fori. Wald sottolineò invece un errore nella strategia di sampling: bisognava infatti considerare anche tutti gli aerei che venivano abbattuti, e che infatti avevano fori in posizioni differenti, come i motori e la cabina di pilotaggio.

Diagramma dei fori di proiettile di un aereo alleato durante la Seconda Guerra Mondiale

Diagramma dei fori di proiettile di un aereo alleato durante la Seconda Guerra Mondiale

La mia seconda domanda ruota intorno all’uso dei dati, al problema dell’informazione e della scelta: quando noi prendiamo una decisione non applichiamo meccanicamente l’evidenza che abbiamo a disposizione, usiamo anche quello che potremmo definire il buonsenso. In alcuni casi, noi richiediamo anzi che ci sia un decisore che non ha maledizione di dover fare per forza la scelta corretta, ma che ha impegnato la sua vita a fare il massimo di quello che può fare nella propria professione – il medico, il giudice e persino il prete. Tendiamo a comprendere il ruolo di ciascun essere umano anche per la funzione particolare che svolge all’interno della collettività. La domanda che faccio quindi è: che differenza c’è tra una scelta umana e la scelta di una macchina?

L’ultima questione riguarda l’impatto dell’IA sulla società: gli strumenti algoritmici sono di fatto proprietà intellettuali di qualcuno ed in quanto tali sono delle black box di cui vediamo l’output, ma di cui non possiamo vedere il funzionamento dall’interno. Quanto è compatibile un attore sociale di cui non conosciamo il funzionamento con la strutturazione della nostra società? Quando questi algoritmi vengono applicati ai dati prodotti da sensori, ci possono dare una leggera capacità di previsione. Ma quando l’algoritmo viene utilizzato a partire dai dati prodotti da persone – i cosiddetti strumenti di profilazione – non solo ne predicono il comportamento, ma lo producono, secondo un modello gaussiano. L’algoritmo come forma di attore sociale pone un problema di regolazione. Personalmente non sono d’accordo con chi parla dei dati come del nuovo olio, per una questione banale: il petrolio lo si raffina e lo si usa una volta sola. Il dato può essere elaborato ed aggregato infinite volte per ottenere infinite informazioni. Stiamo forse entrando in un nuovo medioevo in cui invece dei landlords, ci troviamo di fronte a nuovi datalords, rispetto ai quali possiamo essere soltanto valvassori e valvassini in cambio di servizi? Come gestire questo squilibrio di potenza?

Share on social networks

Our Magazine

Civiltà delle Macchine

Last issue New Edition
Copyright © 2019 Leonardo S.p.A. Privacy & Cookie Policy