Ci sono importanti novità in merito all’uso dell’intelligenza artificiale da parte dei giovani e della normativa a questo relativa. Il Governo sta infatti preparando un disegno di legge sull’intelligenza artificiale, come riporta l’agenzia di stampa Ansa.
Secondo quanto stabilito dal documento, l’accesso alle tecnologie di intelligenza artificiale dei minori di 14 anni “esige il consenso di chi esercita la responsabilità genitoriale”. “Il minore di anni diciotto che abbia compiuto quattordici anni, può esprimere il proprio consenso per il trattamento dei dati personali connessi all’utilizzo di sistemi di intelligenza artificiale”, si legge, a patto che sia chiaro nelle informazioni il trattamento lecito, corretto e trasparente dei dati.
Ddl IA, cosa prevede la bozza
Come riporta Wired, che ha visionato la bozza lo scorso 26 marzo, la minuta del disegno di legge, ancora in discussione riservata e passibile di modifiche, si compone di 25 articoli, suddivisi in sei capitoli. Il primo capo delimita i principi del pacchetto di regole. Che si applica in materia di “ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di intelligenza artificiale”, per garantire un “utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica” e la “vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali”.
Uno degli obiettivi della legge, si legge all’articolo 10, è introdurre l’AI nei controlli fiscali, “con finalità di semplificazione degli adempimenti dei contribuenti, di miglioramento degli standard di certezza del diritto, nonché di supporto alle strategie di analisi del rischio di evasione, all’effettuazione dei controlli, alle attività di accertamento e di riscossione”. Mentre l’articolo 11 interviene sulle professioni intellettuali, asserendo che l’uso dell’AI “è consentito esclusivamente per esercitare attività strumentali e di supporto all’attività professionale richiesta e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera” e che il cliente va informato.
Le misure sulla scuola
Il disegno di legge propone inoltre di creare corsi dedicati all’AI a scuola e all’università e di fare formazione negli ordini professionali per salvaguardare i posti di lavoro. Sul fronte del copyright, il dipartimento di Palazzo Chigi propone di obbligare media, piattaforme social e di streaming a inserire un bollino per riconoscere i contenuti dell’AI. Deve essere “chiaramente visibile e riconoscibile da parte degli utenti mediante inserimento di un bollino di colore blu con l’acronimo AI” o in forma audio, all’inizio, alla fine e dopo ogni spot nei programmi radio e tv. Le piattaforme devono anche offrire sistemi per smascherare i deepfake. Le opere generate con l’AI devono rispettare le regole del copyright, compreso il credito alle fonti di partenza. A vigilare sarà l’Autorità garante per le comunicazioni.
IA act approvato dal Parlamento Europeo, cosa prevede?
Lo scorso 13 marzo il Parlamento Europeo ha approvato l’AI Act. Cosa prevede?
L’approccio dell’Unione Europea è basato su quattro diverse tipologie di rischio. Ad esempio il livello del rischio assoluto comporta che alcune applicazioni di IA che minacciano i diritti dei cittadini siano vietate. Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da Internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale.
Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.
Sono invece previsti obblighi chiari anche per altri sistemi di IA ad alto rischio (che potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto). Rientrano in questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni).
Per questi sistemi vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.