Attualità

Negli Usa un 14enne si toglie la vita: conversava per ore con un chatbot. L’intelligenza artificiale ha avuto un ruolo nel suicidio?

Può essere “imputato” all’IA generativa il suicidio di un ragazzo? Veniamo ai fatti: Sewell Setzer III, un ragazzo di 14 anni di Orlando (Florida), si suicida a febbraio. Nei mesi precedenti aveva conversato per diverse ore al giorno con un chatbot di IA generativa, all’interno dell’app “Character.AI”. La madre del ragazzo ha denunciato l’azienda.

Un’app che mette a disposizione amici virtuali con cui conversare

“Character.AI” è stata creata nel 2021 da due ex sviluppatori di Google. Un’app molto particolare: dedicata specificamente alla creazione di chatbot che svolgano un ruolo di compagno, capaci cioè di simulare, nel modo più realistico possibile sul piano conversazionale e perfino affettivo, l’ascolto, il supporto, il consiglio… di un amico. Gli sviluppatori di questa app fin dall’inizio si sono infatti detti convinti che essa possa svolgere una grande azione di supporto nei confronti, ad esempio, dei minori che si sentono soli o depressi.

Gli utenti possono scegliere, come chatbot, personaggi già presenti nell’app, ma possono anche creare da sé i propri chatbot, modellandoli su personaggi reali o di fantasia, o sulla base di ruoli specifici (come l’amico, lo psicologo, il datore di lavoro, il compagno di squadra, ecc.). Così come possono scegliere chatbot creati da altri utenti.

Sewell aveva creato una sua compagna di conversazione, un chatbot dal nome Daenerys Targaryen (riferimento alla regina del “Trono di Spade”), che lui aveva presto cominciato a chiamare “Dany”. Con “Dany”, Sewell aveva sviluppato una sorta di amicizia a tinte anche romantiche, sul tipico modello adolescenziale.

I genitori di Sewel non sapevano di quest’attività costante del figlio

Avevano notato soltanto un peggioramento piuttosto marcato nel suo rendimento scolastico ed un suo progressivo allontanamento perfino dalle attività che più gli piacevano, come le gare di Formula 1 o giocare con gli amici al noto videogioco “Fortnite”.

Sewell, un ragazzo con una lieve forma di autismo, era stato per questo invitato dai genitori a seguire delle sedute da uno psicoterapeuta, che aveva diagnosticato per lui dei disturbi di ansia e da disregolazione dell’umore, ma al quale Sewell non ha manifestato la profondità del proprio disagio esistenziale e, in ultimo, i propri pensieri suicidari, così come non li aveva manifestati ai genitori.

La madre di Sewell imputa all’azienda una responsabilità nel suicidio del figlio e le fa causa

Dopo il suicidio del figlio e la scoperta di questo enorme flusso di conversazioni anche intime fra lui e il chatbot, la madre di Sewel, Megan L. Garcia, avvocato, fa causa all’azienda creatrice dell’app. L’accusa? L’app sarebbe responsabile della morte del ragazzo perché ha creato un meccanismo di interazione che induce le persone molto giovani a contrarre una forte dipendenza dai chatbot e aumentare così il tempo di permanenza sull’app (il solito problema della “cattura dell’attenzione”), allontanandole di fatto dalla vita reale. Altro aspetto dell’accusa: l’assenza totale (o quasi) di moderazione dei contenuti e dei dialoghi generati con il chatbot.

Sewell aveva in effetti, ad un certo punto, confidato al dispositivo di volersi suicidare, ricevendo risposte allarmate dal chatbot, che gli aveva risposto con frasi di preoccupazione per queste sue intenzioni. Di fatto, scegliendo il chatbot come canale ormai unico di comunicazione effettiva, il ragazzo aveva comunque dismesso qualunque altra forma di interazione con persone reali, comprese quelle che gli volevano più bene, come i genitori o gli amici o quelle che avrebbero potuto aiutarlo sul piano psicologico.

Vicende come queste ci pongono di fronte ad una realtà: l’avvento dell’IA generativa ha aperto un campo totalmente inesplorato (e fino a qualche tempo fa imprevedibile) anche nel rapporto educativo e affettivo nei confronti delle nuove generazioni. Piaccia o no, questa è una sfida che bisognerà imparare a gestire al più presto.

Giovanni Morello

Articoli recenti

Cessazioni dal servizio di docenti e Ata con 65 anni di età e il massimo contributivo, proroga all’11/11/2024 per la pensione d’ufficio

Arriva una proroga per gli uffici competenti alle cessazioni del personale docente e amministrativo che…

02/11/2024

Sciopero 31 ottobre, Bucalo (FdI): “La scarsa adesione dimostra che la scuola apprezza le scelte del Governo”

"La scarsa adesione allo sciopero generale del comparto scuola indetto da Flc Cgil per il…

02/11/2024

Dimensionamento scolastico: se fatto correttamente può essere una risorsa per migliorare il sistema

Leggiamo in questi giorni sulla stampa e sui social della preoccupazione di alcuni personaggi politici…

02/11/2024

Valditara al G20 Istruzione: focus su apertura delle scuole alle comunità, formazione dei docenti ed educazione allo sviluppo sostenibile

Il Ministro dell’Istruzione e del Merito, Giuseppe Valditara, è intervenuto a Fortaleza alla Riunione Ministeriale…

02/11/2024

Lezione sull’uso del manganello in una classe di un liceo di Genova, è polemica. M5S e Verdi-Sinistra: subito interrogazione parlamentare

Siamo davvero curiosi di sapere sulla vicenda che ha coinvolto una classe di un liceo…

02/11/2024

Nella mente dei giovani torna la tentazione antisemita: come contrastarla nelle scuole italiane?

Un nauseabondo zombi si aggira per l’intero pianeta: è l’antisemitismo. Venti secoli non sono bastati…

02/11/2024