Non solo per addetti ai lavori. Anche se la complessità può a prima vista scoraggiare, l’intelligenza artificiale non è un tema riservato a una ristretta cerchia di ingegneri. A occuparsene dovrebbero essere tutti: dai filosofi ai teologi, dai giuristi ai politici, dai sociologi agli psicologi. È uno dei punti emersi al convegno promosso dalla Università Pontificia Salesiana dal titolo “Intelligenza Artificiale: per una governance umana. Prospettive educative e sociali”.
Il vasto elenco dei relatori concorda come ormai l’impiego degli algoritmi sia in tutti i campi. Per questo è importante che nella ricerca tecnologica siano coinvolte anche le discipline umanistiche, per non dimenticare l’utilizzatore di ogni applicazione artificiale: l’uomo. “Serve un monitoraggio multidisciplinare, un’etica all’interno del percorso delle competenze che si occupano della ricerca tecnologica”, spiega mons. Vincenzo Paglia, presidente della Pontificia Accademia per la vita. “L’obiettivo – aggiunge – è assicurare una verifica competente e condivisa dei rapporti fra esseri umani e macchine. Un compito che richiede la disponibilità al dialogo”. Proprio al dialogo fra competenze differenti mira la Call, una carta dei principi di impiego etico, firmata a Roma lo scorso 28 febbraio fra Fao, Ibm, Microsoft e Governo italiano e l’Accademia per la vita. “L’intento è dar vita a un movimento corale che allarghi ad altri soggetti – ricorda Paglia -. L’innovazione tecnologica sfida tutti perché è indispensabile confrontarci.”.
Ma se è certo che l’intelligenza artificiale abbia invaso tutti i settori e le professioni è altrettanto innegabile che il contributo dell’uomo sia imprescindibile e che le macchine non possano essere lasciate sole.
Anche nella medicina, dove l’impiego del machine learing sta prendendo piede e i computer permettono di elaborare milioni di dati impossibili da processare per una mente umana, la necessità che emerge è l’affiancamento del medico, l’unico in grado di capire quale terapia adottare fra quelle suggerite dal computer. “È fondamentale – ricorda Fabio Moioli, Head Microsoft Consulting and Services della Microsoft – che ci sia sempre un umano che decida e non un algoritmo. L’algoritmo infatti impara da noi, anche dai nostri pregiudizi. Tutto sarà automatizzato ma non i nostri principi. Sta a noi – sottolinea – decidere come usare la tecnologia”.
Non serve evocare scenari alla ‘Blade runner’ ma nemmeno fare finta che il cambiamento non sia già in atto. Padre Paolo Benanti, docente di teologia morale ed etica delle tecnologie alla Pontificia Università Gregoriana, spiega come sia necessario parlare di un’etica denominata algoretica: “Un giorno qualcuno ha deciso che il governo degli esseri umani potesse essere dato a degli algoritmi. Ci sono alcuni sistemi che già ci stanno pensando, Singapore ne è un esempio. È chiaro che la questione sia urgente”. I rischi per Benanti sono quindi già reali: “Ci troviamo in una società in cui impera l’algocrazia per cui abbiamo bisogno della algoretica”.
Alcuni esempi pratici di come l’intelligenza delle macchine abbia bisogno della correzione dell’uomo li offre Andrea Laudadio, responsabile dell’Academy and Development di Tim. “Nei colloqui di lavoro – dice -, sappiamo che i candidati non sono esattamente sinceri. Non credo quindi che gli strumenti di intelligenza artificiale applicati nella selezione possano essere usati da chiunque senza una appropriata formazione psicologica. Mi preoccupa – continua – che ci sia una percezione di infallibilità e una sottovalutazione di questi sistemi che lavorano su serie storiche.
Se per esempio, l’azienda in passato ha poco valorizzato le donne, la mia preoccupazione è che ci possano essere dei bias cognitivi da parte della macchina che sceglierà più probabilmente uomini. La sedimentazione di questi pregiudizi potrebbe farci sembrare il risultato come un dato perfetto”.
Per aumentare la consapevolezza dell’uso che si potrà fare dei nuovi strumenti bisogna partire inevitabilmente dalla riforma della scuola. “Credo si debba lavorare sulla preparazione dei giovani non solo tecnica ma anche sulla capacità critica di leggere, elaborare”, è il consiglio di don Fabio Pasqualetti, decano della Facoltà di Scienze della comunicazione dell’Ups. “È l’uomo – continua – che deve fare le scelte etiche e possedere la capacità di comprensione tecnologica”. Migliorare le conoscenze è infine un’altra priorità. L’Italia ha bisogno di esperti dell’intelligenza artificiale e per questo al Cnr è stato creato un comitato di indirizzo che coinvolge tutte le discipline per definire un dottorato nazionale “per superare la frammentazione ed arrivare alla trasformazione digitale del Paese – commenta Marco Conti, direttore dell’Istituto di Informatica e Telematica (IIT) del Centro nazionale delle ricerche (Cnr) -. Una formazione orizzontale che preveda matematica ma anche le materie umanistiche”.