L’IA “va considerata per quello che è: uno strumento, non una persona”. È quanto si legge nella Nota della Santa Sede sull’intelligenza artificiale, in cui si mette in guardia dalla tendenza ad “antropomorfizzare” l’IA, offuscando così la linea di demarcazione tra ciò che è umano e ciò che è artificiale. “L’antropomorfizzazione dell’IA pone particolari problemi per la crescita dei bambini, i quali possono sentirsi incoraggiati a sviluppare schemi di interazione che intendono le relazioni umane in modo utilitaristico, così come avviene con i chatbot”, si spiega nel testo: “Tali approcci rischierebbero di indurre i più giovani a percepire gli insegnanti come dispensatori di informazioni e non come maestri che li guidano e sostengono la loro crescita intellettuale e morale”. “Nessuna applicazione dell’IA è in grado di provare davvero empatia”, incalza la Santa Sede: “Le emozioni non si possono ridurre a espressioni facciali oppure a frasi generate in risposta alle richieste dell’utente”, perché “la vera empatia esiste nella sfera relazionale” e “chiama in causa la percezione e il far proprio il vissuto dell’altro, pur mantenendo la distinzione di ogni individuo”. “Nonostante l’IA possa simulare risposte empatiche, la natura spiccatamente personale e relazionale dell’autentica empatia non può essere replicata da sistemi artificiali”, il monito: “Perciò, si dovrebbe sempre evitare di rappresentare, in modo erroneo, l’IA come una persona, e attuare ciò per scopi fraudolenti costituisce una grave violazione etica che potrebbe erodere la fiducia sociale. Ugualmente, utilizzare l’IA per ingannare in altri contesti – quali l’educazione o le relazioni umane, compresa la sfera della sessualità – è da ritenere immorale e richiede un’attenta vigilanza, onde prevenire eventuali danni, mantenere la trasparenza e garantire la dignità di tutti”.