Le istituzioni dell’Unione europea hanno raggiunto a Bruxelles un accordo politico sulla normativa che regolamenterà l’intelligenza artificiale nel vecchio continente: lo scorso 9 dicembre Commissione, Consiglio e Parlamento europeo hanno infatti approvato l’Ai Act, sul quale a breve voteranno in via definitiva gli stessi organismi europei. Esperti e tecnici del Parlamento europeo e del Consiglio Ue dovranno quindi esprimere il via libera definitivo entro i prossimi mesi sull’accordo raggiunto, al fine che diventi legge.
Detto che nella migliore delle ipotesi il progetto vedrà la luce tra due anni, la legge dovrebbe fare in modo che i diritti e le libertà siano al centro dello sviluppo dell’IA, in modo che innovazione e protezione viaggino parallele.
Il concetto base, scrive il Sole 24 Ore, è che le aziende che producono Ai siano “in grado di dimostrare che il modo in cui sono arrivati a sviluppare la tecnologia non leda i diritti fondamentali e non costituisca un rischio per le persone. Vuole dire in altri termini mantenere al centro della protezione normativa, la tutela dell’integrità e dei diritti dell’individuo”. Diritti che nel caso di giovani rischiano di diventare ancora più a rischio.
Ciò perché “l’Ai Act adotta un approccio ‘basato sul rischio’ per regolamentare l’Ai, concentrandosi sulle applicazioni con il maggior potenziale di danno umano”.
Il regolamento sarà applicabile a due anni dall’entrata in vigore, ad eccezione delle norme sui divieti (applicabili dopo 6 mesi), e sull’IA per scopi generali (Gpai, dopo 12 mesi). E un patto sull’IA verrà lanciato per il periodo di transizione.
L’Ansa ha elencato i principali contenuti della nuova normativa.
APPROCCIO BASATO SUL RISCHIO
Il testo detta una serie di obblighi a fornitori e sviluppatori di sistemi di IA in base ai diversi livelli di rischio identificati. Per i sistemi ad alto rischio, con potenziale danno significativo a salute, sicurezza, diritti fondamentali, ambiente, democrazia, sarà obbligatoria una valutazione dell’impatto sui diritti fondamentali. I cittadini potranno presentare reclami e ricevere spiegazioni sulle decisioni basate sui sistemi di IA ad alto rischio che hanno un impatto sui loro diritti. DIVIETI. Riguardano le pratiche di IA che comportano un rischio inaccettabile per la sicurezza e i diritti fondamentali. Sono inclusi i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, convinzioni politiche, filosofiche, religiose, orientamento sessuale e razza); la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; social scoring; le tecniche manipolative; l’IA usata per sfruttare le vulnerabilità delle persone (legate a età, disabilità, situazione sociale o economica).
SISTEMI DI IDENTIFICAZIONE BIOMETRICA (RBI)
Sono previste delle esenzioni per le forze dell’ordine per l’RBI in spazi accessibili al pubblico, previa autorizzazione giudiziaria e per liste di reati definite. Ricorso all’RBI ‘post-remoto’ per la ricerca di una persona condannata o sospettata di aver commesso un reato grave. Uso dell’RBI ‘in tempo reale’ limitato a ricerche mirate di vittime, prevenzione di una minaccia terroristica, localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati elencati nel regolamento.
SISTEMI DI IA GENERALE
Obblighi di trasparenza per sistemi e modelli di IA Gpai, inclusi il rispetto della legge su copyright e la sintesi su contenuti usati per l’addestramento. Obblighi più stringenti per modelli Gpai ad alto impatto con rischio sistemico, tra cui valutazione del modello, valutazione e mitigazione di rischi sistemici, protezione della sicurezza informatica.
GOVERNANCE
Le autorità nazionali competenti per la sorveglianza del mercato supervisioneranno l’attuazione dell’AI Act a livello nazionale, mentre il nuovo Ufficio per l’AI all’interno della Commissione Ue garantirà il coordinamento a livello europeo.
SOSTEGNO ALL’INNOVAZIONE
La legge promuove regulatory sandboxes e real-world-testing, istituite dalle autorità nazionali per sviluppare e addestrare l’IA innovativa prima dell’immissione sul mercato.
SANZIONI
A seconda della violazione e delle dimensioni dell’azienda, saranno comminate delle multe davvero “salate”: andranno da 35 milioni di euro o dal 7% del fatturato globale fino a 7,5 milioni o l’1,5% del fatturato prodotto.
Maggiori informazioni sull’accordo del 9 dicembre 2023 sono ritrovabili qui: