Intelligenza artificiale: da oggi in vigore normativa Ue. “Tecnologia affidabile con garanzie per diritti fondamentali delle persone”

Oggi entra in vigore la legge europea sull’intelligenza artificiale, ossia il primo regolamento globale sull’intelligenza artificiale al mondo. “La legge sull’Ia è concepita per garantire che” tale tecnologia “sviluppata e utilizzata nell’Ue sia affidabile, con garanzie per proteggere i diritti fondamentali delle persone”. Il regolamento “mira a istituire un mercato interno armonizzato per l’Ia nell’Unione europea, incoraggiando l’adozione di questa tecnologia e creando un contesto favorevole all’innovazione e agli investimenti”. La legge introduce una definizione di Ia, fondata su un approccio basato sulla sicurezza dei prodotti e sul rischio nell’Ue”.
Un primo criterio è il “rischio minimo”: “La maggior parte dei sistemi di Ia, come i sistemi di raccomandazione basati sull’Ia e i filtri spam, rientra in questa categoria. Tali sistemi non sono soggetti a obblighi ai sensi della legge a causa del loro rischio minimo per i diritti e la sicurezza dei cittadini. Le imprese possono adottare volontariamente codici di condotta aggiuntivi”.
Rischio specifico per la trasparenza: in questo caso “i sistemi di Ia come i chatbot devono comunicare chiaramente agli utenti che stanno interagendo con una macchina”. Alcuni contenuti generati dall’Ia, compresi i deep fake, “devono essere etichettati come tali e gli utenti devono essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo che il contenuto sintetico di audio, video, testo e immagini sia marcato in un formato leggibile meccanicamente e rilevabile come generato o manipolato artificialmente”.
C’è poi il “rischio elevato”: i sistemi di Ia identificati come ad alto rischio “saranno tenuti a rispettare requisiti rigorosi, tra cui i sistemi di attenuazione dei rischi, l’elevata qualità dei set di dati, la registrazione delle attività, la documentazione dettagliata, informazioni chiare per gli utenti, la sorveglianza umana e un elevato livello di robustezza, accuratezza e cibersicurezza”.
Viene quindi definito il “rischio inaccettabile”: i sistemi di Ia considerati “una chiara minaccia per i diritti fondamentali delle persone saranno vietati”. Sono compresi i sistemi o le applicazioni di Ia “che manipolano il comportamento umano per eludere la libera volontà degli utenti, come i giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi dei minori”, i sistemi che consentono il “punteggio sociale” da parte di governi o imprese e alcune applicazioni di polizia predittiva. Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio “i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e alcuni sistemi per classificare le persone o l’identificazione biometrica remota in tempo reale a fini di contrasto in spazi accessibili al pubblico”.

© Riproduzione Riservata

Quotidiano

Quotidiano - Italiano

Territori