La Tecnica della scuola sta seguendo con grande attenzione il tema della Intelligenza Artificiale e in particolare delle ricadute dell’IA sui processi educativi. Per fare il punto sul percorso dell’AI ACT, ovvero il percorso di regolamentazione dell’Intelligenza artificiale che è all’ordine del giorno al Parlamento Europeo e per comprendere il senso della proposta in discussione e le sue ricadute sulla scuola, sui docenti e sul loro lavoro, abbiamo intervistato Brando Benifei, europarlamentare italiano (Gruppo dell’Alleanza progressista di Socialisti e Democratici al Parlamento Europeo) che, assieme al collega Dragoş Tudorache, è Relatore al Parlamento Europeo sulla proposta di Legge per la regolamentazione dell’Intelligenza artificiale (AI Act – si veda la Relazione e votazioni in Commissioni ) che il Parlamento ha votato, il 14 giugno 2023.
Aluisi Tosolini – DOMANDA Il 18 luglio 2023 è iniziato il Trilogo sull’AI Act che vede una contrapposizione tra Consiglio e Parlamento soprattutto sull’idea di usare l’intelligenza artificiale per un maggior controllo della società che il Parlamento ha votato di mettere al bando come ha vietato l’uso di algoritmi di polizia predittiva. Lei che è relatore al Parlamento dell’AI Act che esito prevede?
Brando Benifei – RISPOSTA La questione del riconoscimento facciale è stata subito al centro della discussione ed è uno dei punti su cui ci si è maggiormente divisi: ricordo, peraltro, che in quest’ambito i popolari hanno chiesto una votazione separata, finendo in minoranza sia presso le Commissioni congiunte IMCO e LIBE, sia poi presso l’Assemblea plenaria. Rispetto al testo avanzato inizialmente dalla Commissione europea, la posizione approvata dal Parlamento europeo ha ridimensionato fortemente la possibilità di utilizzare le registrazioni di strumenti di videosorveglianza, riducendola a indagini ex post su un «reato grave» e dietro autorizzazione dalla magistratura. Con questo testo non si possono, dunque, utilizzare sistemi di identificazione biometrica per il contrasto dell’immigrazione clandestina o per la difesa dei confini nazionali, i quali rientrano tra i «luoghi pubblici» esclusi dal controllo: è chiaro allora che governi di Stati membri più sensibili a temi securitari vogliano allargare le maglie del ricorso a questo strumento. Un discorso analogo riguarda gli algoritmi cd. predittivi, se non si vuole scivolare dalle parti dei racconti di fantascienza di Philip Dick. A mio parere, si tratta nel complesso di un aspetto qualificante per la qualità dei diritti dei cittadini e della democrazia in Europa, ma non escludo che una mediazione possa includere alcune ipotesi circostanziate.
D. Stando nella scuola, che cosa significa, concretamente, il divieto assoluto fissato dal Parlamento EU di utilizzare sistemi di categorizzazione biometrica per definire e tipizzare studenti e docenti?
R. In ambito scolastico è evidente che l’intelligenza artificiale possa svolgere una funzione utile, ad esempio, per integrare o innovare la didattica, sostenere gli insegnanti e personalizzare l’apprendimento. Considerati il rilievo e la cura che merita il mondo scolastico, una categorizzazione biometrica assumerebbe caratteri davvero inquietanti: per questo è stata esclusa, ma si è andati oltre, prevedendo il divieto di tecniche subliminali, che rischiano di produrre danni psichici, o di sistemi che possano “approfittarsi” particolarmente di una vulnerabilità legata all’età.
D. In ambito educativo viene seguito con molto interesse (e anche molta preoccupazione) tutto ciò che ha a che fare con AI generativa tipo GPT. L’università di Standford ha provato ad analizzare le varie aziende che offrono intelligenze artificiali generative per capire come sono allineate rispetto alle richieste del parlamento europeo con esiti decisamente preoccupanti. Quale è la sua valutazione al riguardo? Non si rischia di essere un po’ troppo aperti e “disponibili” nei confronti della nuova AI?
R. In un ambito così dinamico e con un quadro giuridico ancora assai carente non si può pretendere che i fornitori di modelli e gli sviluppatori di software siano già “allineati” alla futura normativa, ma di certo non possiamo rimandare la richiesta di maggiore trasparenza e l’individuazione di divieti, obblighi e responsabilità. E ovviamente favoriremo tutte le iniziative di adesione anticipata alle regole in modo da costruire un adattamento graduale fino al momento in cui le norme diverranno pienamente vincolanti. Non è poi questione di maggiore o minore apertura, bensì di adeguato bilanciamento tra diritti: siamo tutti favorevoli a un corretto progresso tecnologico, che non deve però determinare effetti negativi sulla vita e sulla tutela delle persone.
D. Secondo lei quanto inciderà la nuova AI Generativa sulla didattica quotidiana a scuola? Molti docenti si sentono tra le professioni a rischio: hanno ragione di sentirsi a rischio?
R. Tutte le innovazioni ci mettono di fronte a una sfida, che non comporta mai solo rischi o solo opportunità positive. È chiaro, quindi, che una parte significativa dei docenti dinanzi all’intelligenza artificiale possa rispondere con sospetto o preoccupazione: certamente è necessario garantire degli strumenti di tutela per gli insegnanti e per gli studenti, in modo tale che le trasformazioni della didattica avvengano in una cornice regolata e senza strappi.
D. Una posizione molto dura su AI generativa e educazione è stata assunta da Stefania Giannini di Unesco. Quale è il suo giudizio su questa posizione abbastanza “catastrofista”?
R. Penso sia giusto cogliere la parte propositiva: non a caso Stefania Giannini, che conosce la questione ed è stata Ministra dell’Istruzione in Italia, denuncia proprio sull’assenza di regole con cui gli strumenti di intelligenza artificiale stanno entrando anche nelle scuole. Nella nostra proposta di regolamento ogni Stato membro si dovrà dotare di un’Autorità nazionale di supervisione sull’AI e sono convinto che questa svolgerà un ruolo cruciale per contenere gli eccessi ed evitare le possibili derive verso l’automazione dell’insegnamento, denunciate nel documento dell’Unesco.
D. Il Parlamento europeo non è ha incluso nell’elenco delle pratiche vietate l’uso dell’intelligenza artificiale per facilitare i respingimenti illegali o per profilare gli individui in modo discriminatorio. Perché ?
R. Già la Commissione europea nella sua proposta iniziale aveva inserito tra gli obiettivi del regolamento quello di contrastare «il rischio di discriminazione algoritmica», richiamandosi a principi già affermati dalla Carta dei diritti fondamentali dell’Unione europea. Una eventuale discriminazione può avere un impatto devastante sulla vita di una persona: basti pensare agli effetti giuridici, che potrebbero verificarsi nell’ambito dei rapporti di lavoro o dell’accesso all’istruzione e alla formazione. Oltre a motivazioni di principio, ci sono anche aspetti tecnici da tenere in considerazione: i software di intelligenza artificiale possono benissimo suggerire scelte condizionate da bias oppure da dati obsoleti o incompleti, in determinate situazioni un rischio decisamente molto alto da correre. Per queste ragioni alcuni tra noi avrebbero voluto proporre nel testo del Parlamento Europeo un divieto pieno in questi frangenti e non solo parzialmente perseguito con lo stop al riconoscimento emotivo in alcuni contesti come appunto la scuola, ma non è stato possibile per la posizione fortemente contraria a una maggiore restrizione da parte delle forze politiche conservatrici e liberali.