La proposta di una legge sull’Ia-Intelligenza artificiale del Parlamento europeo e del Consiglio, fa tappa domani a Strasburgo, dove gli eurodeputati delle commissioni Imco-Mercato interno e protezione dei consumatori e Libe-Libertà civili, giustizia e affari interni, voteranno la loro posizione negoziale, che dovrebbe poi essere confermata dall’assemblea plenaria prima dell’estate. Si tratta di uno dei primi passaggi della legge con la quale i legislatori dell’Ue intendono istituire un primo regolamento al mondo per la diffusione di applicazioni di Ia, immesse sul mercato dell’Ue, stabilendo una definizione comune, vietando la diffusione di determinate pratiche e stabilendo regole di base per altre in base al loro rischio livelli. Al voto i 309 emendamenti che le commissioni presentano alla proposta di legge, evidenziando l’importanza che l’intelligenza artificiale sviluppata e utilizzata in Europa non dovrebbe ostacolare ma sostenere l’innovazione e il contesto imprenditoriale. Ma soprattutto “dovrebbe essere incentrata sull’uomo e affidabile, rispettosa dei diritti fondamentali e i valori dell’Unione sanciti dai trattati”. Entrando nello specifico della proposta di regolamento che mira a fare chiarezza, sostenendo il settore privato e le autorità pubbliche a rispettare i nuovi obblighi, le commissioni si concentrano sul discorso di trasparenza dei diversi sistemi di Ia, nessuno escluso a priori, allineando il testo con il Rgdp (Regolamento generale sulla protezione dei dati).
Nell’elenco delle pratiche vietate appare in evidenza quello di polizia predittiva, cioè la creazione di modelli statistici per cercare di anticipare i crimini, perché violerebbe il principio della presunzione di innocenza. Particolarmente approfondito il capitolo dei sistemi di Ia ad alto rischio, dove si chiede l’inserimento di quelli che interessano i bambini, quelli utilizzati da candidati o partiti per influenzare i voti alle elezioni locali, nazionali o europee, quelli per contare i voti, quelli per il triage dei pazienti nel settore sanitario e per determinare l’idoneità all’assicurazione sanitaria e sulla vita, così come quelli di deepfake. Si specifica anche come debbano essere gli stessi utenti ad assicurare che vengano nominate persone competenti responsabili della supervisione umana dei sistemi di Ia ad alto rischio, e le autorità pubbliche, le istituzioni, le agenzie o gli organismi dell’Unione, dovrebbero registrare l’uso nella banca dati a livello di Ue. Una governance che comprende il Consiglio Ia, organo responsabile dell’applicazione uniforme del regolamento, di consulenza e raccomandazione alla Commissione ed alle autorità nazionali di vigilanza, oltre che dell’organizzazione di consultazioni con industria, start-up e Pmi, società civile e mondo accademico. A livello nazionale si richiede cooperazione tra autorità di vigilanza del mercato ed autorità di protezione dei dati e, per quanto riguarda la vigilanza, il coinvolgimento di tutte le parti interessate, al fine di garantire i diritti delle persone e creare fiducia nei sistemi di Ia.