Attualità

ChatGPT, può fornire al docente esercizi di grammatica pronti? I rischi di mandare (ulteriormente) in confusione gli alunni – Scienze per la Scuola

Nuovo appuntamento con la rubrica Scienze per la Scuola: oggi parliamo di ChatGPT e didattica.

Gli strumenti di intelligenza artificiale generativa, cioè capaci di generare contenuti e non solo di elaborarli, possono essere utili in vari campi, compresi la didattica e lo studio personale.

Ci sono sicuramente grandi opportunità sul piano della personalizzazione degli apprendimenti o dell’assistenza tutoriale (almeno, entro certi limiti), ma possono presentare insidie in altri aspetti.

Si dice, ad esempio, che un agente conversazionale (così lo chiamano) come ChatGPT può essere utile per generare esercizi o prove di verifica. Ho provato a testarlo su questo punto e presento qui qualche esito.

Io: “Puoi elaborare un esercizio grammaticale sull’uso degli accenti nella lingua italiana (es.: monosillabi o parole tronche)?”

ChatGPT: “Indica se le seguenti parole tronche o monosillabi richiedono o meno l’accento grafico”.

Per brevità, aggiungo, alla destra delle singole parole proposte come test dal dispositivo, anche le risposte che esso ha dato, sottolineando gli errori che ha compiuto:

“Però (Richiede l’accento)

Cosa (Non richiede l’accento)

Già (Non richiede l’accento)

Più (Non richiede l’accento)

Uovo (Non richiede l’accento)

Quà (Richiede l’accento)

Città (Non richiede l’accento)

Faccio notare al dispositivo che ha fatto alcuni errori.

ChatGPT: “Hai ragione, e mi scuso per l’errore. La parola “qua” è un monosillabo […] la forma corretta è “qua” senza l’accento grafico. Mi scuso ancora per l’errore nella mia risposta precedente. Grazie per la correzione

Cambio allora argomento: “Puoi proporre qualche esercizio sull’uso delle proposizioni subordinate concessive (sintassi del periodo, grammatica italiana)?”

ChatGPT: “Certamente! […] Completa le seguenti frasi inserendo la proposizione subordinata concessiva corretta:

1) ____ (Sebbene piovesse), sono uscito per fare una passeggiata.

2) ____ (Pur avendo fame), non voleva mangiare.

3) ____ (Anche se faceva freddo), siamo andati in montagna.

4) ____ (Per quanto fosse difficile), ha superato l’esame brillantemente […]”

Qui, per fortuna, il dispositivo pare ferrato e non sbaglia.

Quando però gli chiedo di impostare un esercizio-verifica con le proposizioni limitative, mi propone un esercizio drammaticamente composto solo di proposizioni relative:

1) La città che tutti conoscono è famosa per la sua storia.

2) La cosa che mi ha sorpreso è il suo comportamento.

3) Il problema che abbiamo affrontato era molto complesso.

Ecc.

ChatGPT però, conosce, almeno sul piano teorico, le proposizioni limitative, perché è in grado di darne una definizione: ChatGPT: “Questo esercizio si concentra sull’uso delle proposizioni subordinate limitative, che introducono una restrizione o una precisazione sul nome o sul verbo della proposizione principale”.

Gli faccio sommessamente notare che però di proposizioni limitative non se n’è vista fino a quel momento neanche l’ombra e il dispositivo, educatamente e con qualcosa di simile ad una certa contrizione, si scusa. Tuttavia, a fronte di mie successive richieste, persevera diabolicamente nel propormi proposizioni relative al posto delle limitative che avevo richiesto. Anche dopo che gli avevo fatto degli esempi molto semplici di proposizione limitativa. Ma non c’è verso.

Ormai piuttosto scoraggiato, gli chiedo di fare l’analisi del periodo di una frase che contiene una proposizione limitativa, per vedere se (almeno) la sa riconoscere (“Per quanto concerne questo aspetto, non so molto“). E la riconosce:

ChatGPT: “La frase è composta da due proposizioni: 1) “Per quanto concerne questo aspetto” è una proposizione subordinata limitativa che introduce una precisazione sull’argomento della proposizione principale. 2) “Non so molto” è la proposizione principale.”

Arriviamo così a questa ambigua conclusione: il nostro simpatico ed educato agente conversazionale a) ha una conoscenza semantica (astratta) delle proposizioni limitative; b) è in grado di riconoscerle se le incontra, ma c) non è in grado (almeno allo stato attuale e nella versione gratuita) di generarne degli esempi. Quindi, guai a chiedergli di proporre esercizi di questo tipo agli alunni. E questo può valere per chissà quanti altri argomenti disciplinari.

Se l’insegnante intende usare questo dispositivo, occorre pertanto che individui preventivamente su quali richieste di generazione di esercizi ChatGPT può effettivamente dare un aiuto. Altrimenti, può creare ulteriori disastri nel processo di apprendimento degli alunni. E ci manca solo questo.

Teniamo però conto di un dato di fatto: gli studenti stanno già comunque cominciando ad usare regolarmente, e autonomamente, ChatGPT nel loro studio. Speriamo bene.

Il presente articolo fa parte della rubrica Scienze per la Scuola, curata da Giovanni Morello. Vedi anche gli altri articoli pubblicati:

Violenza sulle donne, la cultura del possesso è un virus invisibile: ogni docente può fare la propria parte per contrastarlo – Scienze per la Scuola

Giovanni Morello

Articoli recenti

Un dipendete su tre pronto lasciare il lavoro e il 53% è stressato

Se il 63% dei lavoratori e delle lavoratrici italiani, pur avendo  una percezione positiva del proprio…

18/11/2024

Lo jus Italiae può essere di aiuto alla diplomazia: parola di ministro degli esteri

Il vicepresidente del Consigli e ministro degli Esteri Antonio Tajani in un’intervista rilasciata a “Tuttosport”, ha affermato:…

18/11/2024

La prima causa di morte tra giovani: gli incidenti stradali

In quattro giorni 22 morti, e nella sola giornata in ricordo delle vittime della strada,…

18/11/2024

Personale ATA: posizioni economiche in godimento e attribuzione delle nuove posizioni con procedura selettiva

In attuazione a quanto previsto dal CCNL 2019/2021, il decreto 140/2024, determina il numero delle…

18/11/2024

Le chat dei genitori sono fabbriche di paranoia e rabbia collettiva, vanno vietate per legge: lo psicoterapeuta Lavenia è sicuro

“A Castellammare di Stabia si è superato ogni limite: una docente è finita vittima di…

18/11/2024

Landini (Cgil) boccia la Legge di Bilancio: toglie scuola e sanità, non tocca gli evasori, apre ai condoni

La legge di Bilancio è iniqua: toglie alla spesa pubblica, quindi a scuola e sanità,…

17/11/2024