Arriva oggi, 21 maggio, il via libera definitivo all’unanimità del Consiglio dell’Unione Europea all’AI Act, la legge europea sull’intelligenza artificiale che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA in Ue. Lo riporta Ansa.
La legge, la prima al mondo in materia, detta una serie di obblighi a fornitori e sviluppatori di sistemi di IA in base ai diversi livelli di rischio identificati.
Le nuove regole saranno applicabili a due anni dall’entrata in vigore, con l’eccezione dei divieti, che scatteranno dopo sei mesi, dei controlli sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e degli obblighi per i sistemi ad alto rischio (36 mesi).
La legge era stata approvata dal Parlamento Europeo marzo scorso. I deputati hanno approvato il regolamento, frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni.
Come ben sanno i lettori di Tecnica della Scuola l’approccio dell’Unione Europea è basato su quattro diverse tipologie di rischio. Ad esempio il livello del rischio assoluto comporta che alcune applicazioni di IA che minacciano i diritti dei cittadini siano vietate. Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da Internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale.
Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.
Sono invece previsti obblighi chiari anche per altri sistemi di IA ad alto rischio (che potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto). Rientrano in questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni).
Per questi sistemi vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.
I sistemi di IA per finalità generali e i modelli su cui si basano dovranno soddisfare determinati requisiti di trasparenza e rispettare le norme UE sul diritto d’autore durante le fasi di addestramento dei vari modelli. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti.
Inoltre, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake“) dovranno essere chiaramente etichettati come tali.
Su questi argomenti il corso Intelligenza artificiale al servizio dei docenti, a cura di Ivano Stella, in programma dal 28 maggio.
Il conferimento delle supplenze temporanee si attua mediante la stipula di contratti di lavoro a…
Se il patriarcato non c’entra, ma c’entra il fenomeno degli stranieri che stanno arrivando in…
Un nostro affezionato lettore, docente in un Istituto Comprensivo in cui vige la settimana corta,…
Ancora censure nelle scuole degli Stati Uniti : in Florida sono tantissimi i libri che…
Ormai manca poco all'attesissima pubblicazione del prossimo bando del concorso docenti 2024. Come ha già…
Nella puntata del daytime di oggi, 19 novembre, del talent show Amici, in onda su…