Intelligenza artificiale: Benanti (esperto), “algor-etica perché l’uomo sia sempre al centro”

Affiancare etica e tecnologia per un’intelligenza artificiale che ponga sempre al centro l’uomo e sia al servizio di un autentico sviluppo. Ma servono nuovi criteri, categorie e linguaggi. E occorre sviluppare un’etica degli algoritmi. Lo sostiene in un’intervista al Sir Paolo Benanti, francescano, docente di teologia morale ed etica delle tecnologie alla Pontificia Università Gregoriana, accademico della Pontificia Accademia per la Vita e membro del Gruppo di esperti di alto livello appena insediatosi presso il ministero dello Sviluppo economico per supportare il governo nell’elaborazione di una strategia nazionale per le intelligenze artificiali. Analizzando il dibattito sorto intorno all’ipotesi sollevata dal Parlamento europeo di attribuire “personalità elettronica” ai robot, l’esperto invita a distinguere tre livelli: tecnologico, etico e giuridico. Il dibattito si è invece per ora limitato solo all’ultimo, ossia, a come regolamentare l’utilizzo di queste macchine nella società, ma, secondo Benanti, oggi “le categorie tradizionali non bastano più, bisogna trovare soluzioni nuove”. E avverte: “Non si può parlare di etica senza conoscere gli aspetti tecnici, non si può dare una regolamentazione giuridica senza principi etici e una conoscenza del sottostrato tecnologico”. “Queste macchine – prosegue – funzionano con algoritmi” che ad oggi sono “scatole nere” protette da copyright. Di qui la domanda: “È pensabile mantenere queste black box oppure dobbiamo renderle crystal box, ossia trasparenti?”. Per far sì che questa innovazione sia davvero al servizio dell’uomo occorre “legare il progresso allo sviluppo mediante i valori etici. Una sfida particolarmente impegnativa nel caso dell’intelligenza artificiale perché i valori su cui decide la macchina sono valori numerici e allora bisogna creare nuovi paradigmi per trasformare i valori etici in qualcosa che la macchina possa capire”. Per questo occorre “formulare la nuova modalità dell’algor-etica” che “dovrà racchiudere tavole di valori, principi e norme da tradurre in linguaggio-macchina”. “Un modello – spiega – può essere quello di ‘insinuare’ all’interno della macchina una sorta di incertezza”. Così “di fronte a un dubbio la macchina interpellerà colui che dell’etica è portatore, ossia l’uomo, per validare le sue decisioni. Questo ci porta a creare una ‘Human Centered AI'” e a sviluppare macchine “che siano integrate con l’uomo e insieme all’uomo cerchino la soluzione migliore”.

© Riproduzione Riservata

Quotidiano

Quotidiano - Italiano

Chiesa