Oggi entra in vigore la legge europea sull’intelligenza artificiale, ossia il primo regolamento globale sull’intelligenza artificiale al mondo. “La legge sull’Ia è concepita per garantire che” tale tecnologia “sviluppata e utilizzata nell’Ue sia affidabile, con garanzie per proteggere i diritti fondamentali delle persone”. Il regolamento “mira a istituire un mercato interno armonizzato per l’Ia nell’Unione europea, incoraggiando l’adozione di questa tecnologia e creando un contesto favorevole all’innovazione e agli investimenti”. La legge introduce una definizione di Ia, fondata su un approccio basato sulla sicurezza dei prodotti e sul rischio nell’Ue”.
Un primo criterio è il “rischio minimo”: “La maggior parte dei sistemi di Ia, come i sistemi di raccomandazione basati sull’Ia e i filtri spam, rientra in questa categoria. Tali sistemi non sono soggetti a obblighi ai sensi della legge a causa del loro rischio minimo per i diritti e la sicurezza dei cittadini. Le imprese possono adottare volontariamente codici di condotta aggiuntivi”.
Rischio specifico per la trasparenza: in questo caso “i sistemi di Ia come i chatbot devono comunicare chiaramente agli utenti che stanno interagendo con una macchina”. Alcuni contenuti generati dall’Ia, compresi i deep fake, “devono essere etichettati come tali e gli utenti devono essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo che il contenuto sintetico di audio, video, testo e immagini sia marcato in un formato leggibile meccanicamente e rilevabile come generato o manipolato artificialmente”.
C’è poi il “rischio elevato”: i sistemi di Ia identificati come ad alto rischio “saranno tenuti a rispettare requisiti rigorosi, tra cui i sistemi di attenuazione dei rischi, l’elevata qualità dei set di dati, la registrazione delle attività, la documentazione dettagliata, informazioni chiare per gli utenti, la sorveglianza umana e un elevato livello di robustezza, accuratezza e cibersicurezza”.
Viene quindi definito il “rischio inaccettabile”: i sistemi di Ia considerati “una chiara minaccia per i diritti fondamentali delle persone saranno vietati”. Sono compresi i sistemi o le applicazioni di Ia “che manipolano il comportamento umano per eludere la libera volontà degli utenti, come i giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi dei minori”, i sistemi che consentono il “punteggio sociale” da parte di governi o imprese e alcune applicazioni di polizia predittiva. Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio “i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e alcuni sistemi per classificare le persone o l’identificazione biometrica remota in tempo reale a fini di contrasto in spazi accessibili al pubblico”.