Il futuro presente / 2
Affiancare etica e tecnologia per un’intelligenza artificiale che ponga sempre al centro l’uomo e sia al servizio di un autentico sviluppo. Ma servono nuovi criteri, categorie e linguaggi. E occorre sviluppare un’etica degli algoritmi. Intervista a tutto campo con Paolo Benanti, docente di etica delle tecnologie e membro del Gruppo di esperti del Mise
La creazione di intelligenze artificiali (AI) capaci di avvicinare sempre più il modo di “pensare” di una macchina a quello umano è probabilmente una delle sfide più impegnative che attendono l’uomo nei prossimi anni. Quando si parla di intelligenza artificiale si parla sostanzialmente di algoritmi. Dalla complessità e potenza degli algoritmi e delle loro sequenze deriva un’intelligenza artificiale più o meno evoluta. Droni, robotica, stampa 3D; logistica, edilizia e biotecnologia; diagnostica, chirurgia robotica sempre più avanzata, esoscheletri indossabili per riabilitazione motoria, automobili a guida autonoma i principali ambiti di applicazione. “Caratteristica chiave di questa nuova frontiera evolutiva”, spiega al Sir padre Paolo Benanti, francescano, docente di teologia morale ed etica delle tecnologie alla Pontificia Università Gregoriana e accademico della Pontificia Accademia per la Vita, è che “la AI non serve a fare una cosa nuova ma è una tecnologia che cambia il modo con cui facciamo tutte le cose. Un po’ come accadde con l’introduzione dell’energia a vapore o della corrente elettrica”. Le AI “possono surrogare la presenza umana in alcune azioni ma non possono certo sostituire l’uomo”, assicura. Benanti è inoltre membro del Gruppo di esperti di alto livello appena insediatosi presso il ministero dello Sviluppo economico per supportare il governo nell’elaborazione di “una strategia nazionale per le intelligenze artificiali”.
Professore, il progressivo sviluppo dell’intelligenza artificiale che impatto ha sull’autocomprensione dell’uomo?
L’artefatto tecnologico può cambiare la comprensione che l’uomo ha di se stesso e del mondo. E’ già accaduto in passato quando nel XV secolo con la lente convessa abbiamo generato il telescopio e il microscopio. Con l’infinitamente lontano e l’infinitamente piccolo la comprensione dell’universo e del nostro corpo è cambiata. Oggi il computer che lavora sui dati genera uno strumento che potremmo chiamare “macroscopio” e la comprensione che abbiamo del mondo e di noi stessi sta cambiando. L’insorgere dell’intelligenza artificiale sta già modificando la percezione che abbiamo di noi, basti pensare alle neuroscienze o ai modelli di fisica teorica o di astrofisica.
Che differenza c’è tra l’intelligenza umana e quella di una macchina, per quanto sofisticata?
E’ una differenza radicale. La AI non va confusa con un analogato umano perché è finalizzata a compiti molto specifici. La relazione che l’uomo può avere con l’intelligenza artificiale è quella che un tempo i nostri nonni avevano con gli animali o quella che hanno oggi i soccorritori con i cani da soccorso.
La AI è un’intelligenza molto specifica addestrata per determinati compiti.
Queste macchine saranno mai in grado di autodeterminarsi consapevolmente?
No, perché la consapevolezza è una qualità umana e richiederebbe un’intelligenza generale e non specifica come quella artificiale. Richiederebbe che fossimo in grado di creare non qualcosa ma qualcuno. Ciò non toglie che dovremmo arrivare ad avere macchine che fanno cose che non riusciamo a spiegare, il cui funzionamento complesso potrebbe superare la nostra capacità di comprensione, ma questo non le renderà certamente persone.
Il Parlamento europeo ha sollevato la questione dell’eventuale attribuzione di “personalità elettronica”, ossia diritti e responsabilità, ai robot in grado di assumere decisioni in modo autonomo, ma 156 esperti si oppongono. Qual è la sua opinione?
In questo dibattito occorre distinguere tre livelli. Il primo è il livello tecnologico: riuscire a capire come costruire macchine che hanno tratti con un forte grado di imprevedibilità. La seconda questione è etica: come gestire questa imprevedibilità. Una macchina che sceglie da sola può sbagliare? E se sbaglia, che vuol dire parlare di responsabilità? Al terzo livello si situa la regolamentazione giuridica che riguarda il come gestire queste macchine nella vita di tutti giorni in una società che sarà fatta sempre più di agenti umani (persone) e di agenti autonomi robotici. Il dibattito del regolamentatore europeo si è limitato al livello giuridico, a come regolamentare l’utilizzo di queste macchine nella società. C’è chi ritiene che attribuire personalità giuridica ai robot non significa farne delle persone, ma darebbe la possibilità di assicurarli e quindi di risarcire eventuali danni provocati a persone o proprietà. Dall’altra parte c’è chi ritiene che questo svincolerebbe i produttori da una certa responsabilità. La linea di fondo è che tanta è la novità introdotta da queste macchine che
le categorie tradizionali non bastano più, bisogna trovare soluzioni nuove.
Da dove partire?
Anzitutto non bisogna sganciare la parte giuridica dalla parte etica e dalla parte tecnica. Non si può parlare di etica senza conoscere gli aspetti tecnici, non si può dare una regolamentazione giuridica senza principi etici e una conoscenza del sottostrato tecnologico. Inoltre occorre introdurre nel rapporto singolo – produttore degli enti terzi, enti certificatori per certificare l’utilizzo di queste macchine. All’interno del gruppo del Mise stiamo lavorando per immaginare soluzioni che possano funzionare. Il secondo elemento è che queste macchine funzionano con algoritmi, codici che determinano come la macchina reagirà. Ad oggi questi algoritmi sono “scatole nere” protette da copyright. Dobbiamo allora chiederci:
è pensabile mantenere queste black box oppure dobbiamo renderle crystal box, ossia trasparenti?
In Laudato sì il Papa mette in guardia dal pragmatismo tecnocratico. Che tipo di etica serve perché questa innovazione sia davvero al servizio dell’uomo?
Non ogni forma di progresso fa rima con sviluppo. Quando parliamo di progresso tecnologico parliamo di produzione di innovazione; quando utilizziamo la parola sviluppo pensiamo ad un’innovazione orientata ai principi del bene comune contenuti nella dottrina sociale della Chiesa. La risposta allora è: legare il progresso allo sviluppo mediante i valori etici. Una sfida particolarmente impegnativa nel caso dell’intelligenza artificiale perché i valori su cui decide la macchina sono valori numerici e allora bisogna creare nuovi paradigmi per
trasformare i valori etici in qualcosa che la macchina possa capire.
In che modo?
La mia proposta è
formulare la nuova modalità dell’algor-etica
Che significa?
Come l’etica racchiude in sé principi, valutazioni e norme, così l’algor-etica dovrà racchiudere
tavole di valori, principi e norme da tradurre in linguaggio-macchina.
Come?
Un modello può essere quello di
“insinuare” all’interno della macchina una sorta di incertezza
Dal punto di vista algor-etico questo significa che di fronte a un dubbio la macchina interpellerà colui che dell’etica è portatore, ossia l’uomo, per validare le sue decisioni. Questo ci porta a creare una “Human Centered AI” (centrata sull’uomo) e a sviluppare macchine che non rispondano semplicemente sì o no, ma siano integrate con l’uomo e insieme all’uomo cerchino la soluzione migliore.