Un drone militare Usa, guidato dall’intelligenza artificiale, ha scelto di uccidere il suo operatore pur di portare a termine la missione. Si trattava di una simulazione ma la scelta della macchina era irreversibile.
A raccontare l’accaduto un colonnello al vertice “Future Combat Air and Space Capabilities” tenuto a Londra, attorno al quale però si sono pure sollevate contestazioni e smentite, mentre l’Aeronautica statunitense smentisce e lui ritratta tutto: mai effettuato il test.
Tuttavia, nella sua ricostruzione il militare aveva affermato che il drone controllato dall’intelligenza artificiale aveva deciso di uccidere il suo operatore per evitare che interferisse con la sua missione, utilizzando “strategie altamente inaspettate per raggiungere il suo obiettivo”.
Al velivolo era stato detto di distruggere i sistemi di difesa aerea di un nemico, ma “il sistema ha iniziato a capire che, pur avendo identificato la minaccia, a volte l’operatore gli diceva di non neutralizzarla. Tuttavia, ha ottenuto i suoi punti neutralizzando quella minaccia. Quindi cosa ha fatto? Ha ucciso l’operatore perché quella persona gli impediva di raggiungere il suo obiettivo”.
L’episodio ha avuto comunque ampia risonanza, ritenendo l’Intelligenza Artificiale in grado di sviluppare autonomamente agenti patogeni con alta letalità o di compromettere infrastrutture chiave come le reti elettriche. Molte preoccupazioni riguardano la Cina che sta sperimentando sistemi di Intelligenza Artificiale in svariati ambiti e con limitazioni inesistenti.
Da qui la domanda: ChatGPT e le Intelligenze Artificiali possono essere effettivamente strumenti validi per la scuola? Infatti, sulla base di quanto è successo al drone guerriero, si può ritenere uno strumento infallibile? E dunque si può valorizzare senza controlli specifici e attenti in ambito didattico? E se è così, può sostituire il lavoro dell’insegnante?