Occorre “proporre strumenti concreti affinché, di fronte alla nuova sfida tecnologica imposta dall’intelligenza artificiale, vengano da subito messe in campo soluzioni efficaci e condivise fondate sulla centralità della dignità dei bambini e degli adolescenti”. Questo l’appello lanciato oggi da Ernesto Caffo, presidente di Fondazione Sos – Il Telefono azzurro Ets, per il Safer Internet Day 2024 (Giornata mondiale per la sicurezza in rete) che ricorre domani 7 aprile. Occasione, dopo l’appuntamento milanese di ieri, è stato l’incontro in corso oggi a Roma (Palazzo Wedekind), “Ci arriva anche un bambino. Crescere nel digitale: la rivoluzione dell’intelligenza artificiale per i bambini e gli adolescenti”, promosso dall’associazione per affrontare in maniera trasversale il tema della sicurezza della rete per bambini e adolescenti. Tre i principi su cui lavorare: protection, provision, participation, ma serve l’impegno di tutti i soggetti in campo: aziende del digital, istituzioni e authorities chiamate a dare regole chiare e valide per tutti. Per Caffo,
“sono necessarie soluzioni concrete, risposte operative, condivise e applicabili: risposte capaci di diventare una base di proposta utile a livello istituzionale a partire dal prossimo G7 per delineare un quadro di intervento comune a livello internazionale”.
Per il presidente della Camera dei deputati, Lorenzo Fontana, occorre “sensibilizzare i responsabili delle piattaforme ad aumentare gli standard di sicurezza, i controlli e i meccanismi di segnalazione di anomalie e di abusi per garantire un’esperienza sicura e adeguata alla minore età”, ma è cruciale “il ruolo della scuola e delle famiglie nella formazione e nell’educazione digitale dei minori”. “La salvaguardia della dignità e della salute dei giovani è il principio irrinunciabile che deve guidare le nostre azioni”, ha osservato il ministro della Salute Orazio Schillaci, assicurando il “massimo impegno” del dicastero. ” È importante – ha detto Alessandra Locatelli, ministro per le Disabilità – creare una coscienza e momenti di responsabilità per i più giovani e per le fasce più fragili”, come ad esempio i “nostri anziani non autosufficienti che, piuttosto di rimanere chiusi nella loro solitudine, si aprono e incontrano persone per scambiare riflessioni e pensieri proprio attraverso i social”.
“Con il cosiddetto decreto Caivano abbiamo cercato di responsabilizzare ancora di più le famiglie, in particolare su altri ambiti come l’abbandono scolastico, ma lo abbiamo fatto anche sul fronte dell’accesso a siti inadatti e sui rischi che i ragazzi e i bambini corrono in questo accesso precoce, e abbiamo stabilito l’obbligo del parental control nei nuovi device”, ha sottolineato Eugenia Roccella, ministro per la Famiglia. “Un approccio organico, articolato su regole certe per chi veicola contenuti in rete e su politiche specifiche per educare all’uso consapevole e responsabile delle tecnologie” è la “ricetta” del ministro delle Imprese e del Made in Italy Adolfo Urso.
Per mons. Vincenzo Paglia, presidente della Pontificia Accademia per la vita (Pav), “la responsabilità di tutte le istituzioni è fondamentale, ma il problema è la politica, che a mio parere è in ritardo. La politica deve coinvolgere le Nazioni unite; in questo senso mi auguro che il G7 dia un impulso”. L’arcivescovo ha richiamato il documento sull’intelligenza artificiale “Rome Call for AI Ethics”, firmato nel 2020 da Pav, Microsoft, Ibm e Fao. “Abbiamo coinvolto capi dell’islam e dell’ebraismo che lo hanno firmato nel gennaio scorso, e – ha annunciato – stiamo preparando per il prossimo luglio a Hiroshima un incontro di tutti i capi delle religioni mondiali affinché sia fortemente promosso”. Di nuovo l’invito alla politica “a fare quel grande passo avanti che finora non c’è stato”.
“Il prossimo 17 febbraio avrà applicazione anche nel nostro Paese il regolamento europeo che noi conosciamo con il nome Digital service Act, un quadro di regole precise che possono evitare o minimizzare i rischi per le persone più esposte al pericolo, come sono appunto minori e adolescenti”, ha anticipato Bruno Frattasi, direttore generale dell’Agenzia per la cybersicurezza nazionale, mettendo in guardia dal rischio dell’utilizzo improprio dei dati dei minori e dalla disinformazione, ossia “la distorsione del messaggio della narrazione pubblica”; un “processo manipolativo” nel quale l’intelligenza artificiale può giocare un ruolo importante. Oggi, ha spiegato, “dovrebbe essere più facile contrastare questi processi perché, sempre in base a un’altra norma, sarà previsto che le immagini che derivano da un processo manipolativo, e cioè attraverso un processo di intelligenza artificiale, vengano segnalate”, ma “ci aspettiamo molto dalla discesa in campo della politica e dallo sforzo regolatori dell’Europa che si sta traducendo in regole che potranno consegnarci alla fine un web più sicuro”.
“Fenomeni drammatici come il grooming, il cyber bullismo, il revenge porn, il coinvolgimento in giochi mortali hanno infatti in comune, pur nelle loro differenze, l’esposizione del minore ad effetti fortemente lesivi”. A sottolinearlo è Pasquale Stanzione, presidente dell’Autorità Garante per la protezione dei dati personali. “Lo stesso pedinamento digitale realizzato con il tracciamento della navigazione funzionale, il microtargeting, e l’invio di pubblicità a contenuti mirati sono fortemente distorsivi per la formazione e per il processo cognitivo dei minori”, ha aggiunto. Effetti che “si amplificano in misura esponenziale quanto più piccoli ne sono i fruitori”. Di qui l’importanza di un “bilanciamento tra autodeterminazione del minore e sua tutela”, ma “nessuna tutela – ha concluso – può essere realmente efficace senza sensibilizzazione dei genitori e vera autoconsapevolezza del minore”.
Intanto ieri ha visto la luce a Milano l’Osservatorio Digital & Kids promosso da Telefono Azzurro in partnership con il Politecnico di Milano. Quattro i filoni di ricerca che saranno sviluppati nel corso del primo anno di attività: educazione al digitale, intelligenza artificiale, scuola digitale, regolamentazione. Si partirà dal censimento di iniziative e soluzioni per l’educazione al digitale e dalla valutazione del livello di consapevolezza attuale su opportunità e rischi del digitale da parte di minori e caregiver. Grazie all’approfondimento sull’intelligenza artificiale (AI) sarà invece possibile valutare come tali tecnologie possano contribuire alla vigilanza e alla sicurezza dei minori online a partire dai sistemi di age verification, fino all’identificazione degli abusi e alla prevenzione del cyberbullismo. Attraverso il filone della scuola digitale sarà mappato l’impatto che l’AI ha su modelli educativi, apprendimento dei ragazzi, inclusione e processi scolastici. Infine, attraverso l’analisi della regolamentazione sarà possibile avere un benchmark internazionale legato al tema dell’accesso a Internet e allo sviluppo di servizi digitali dedicati ai minori, oltre all’identificazione dei profili di responsabilità da parte dei fornitori di servizi digitali rivolti ai ragazzi.