brozu

Proviamo così: quando metti un sistema di questo tipo tra lo studente e il contenuto, succede una cosa abbastanza chiara in diversi esperimenti seri. Chi usa la macchina riferisce di sentirsi più sicuro, più “a posto” con l’argomento, come se avesse capito bene. Poi però, quando li togli dall’ambiente assistito e li metti davanti a un compito nuovo, senza aiuto, spesso i risultati non sono migliori di chi ha studiato con strumenti più tradizionali, e a volte sono pure un po’ più deboli sulla parte di ragionamento profondo. Chiaro così?

C’è uno studio grosso: decine di esperimenti, migliaia di persone, gente normale che deve capire un argomento. Una volta usano il motore di ricerca, l’altra volta si fanno “spiegare” tutto da un LLM (ChatGPT, Claude e vari). Risultato? Quando leggono le risposte della chat, hanno la sensazione di aver capito di più, con meno fatica.

Bello, eh?

Peccato che ai test che chiedono di ragionare sul serio, quelli che hanno sudato con la ricerca se la cavano meglio di chi ha letto la soluzione pronta (pubmed.ncbi.nlm.nih).

Tradotto proprio grezzo: con la chat senti la testa leggera, ma l’apprendimento pesante non c’è. La comprensione vera, quella che regge tre giorni dopo, la tira fuori chi ha dovuto cercare, confrontare, filtrare, non chi ha ricevuto il “compitino finito”.

Poi c’è la storia che vendono a tutti: “facciamo l’IA socratica, dialogica, domande aperte, imparano di più”. Sì, certo.

In un'altro interessante studio hanno preso in esame ragazzi di scuole superiori, 14‑18 anni con compiti che necessitavano di stimare cose, risolvere problemi, scrivere. Un gruppo vede solo la risposta della macchina, l’altro vede anche il ragionamento passo passo. Indovina? Quando c’è il ragionamento, la risposta finale è un po’ migliore, più vicina al risultato giusto. Fin qui ok (scale.stanford).

Ma la parte interessante è dopo. Hanno messo l’IA in modalità “faccio domande, ti guido”, tipo tutor rompiscatole, e l’hanno confrontata con la versione “ti do direttamente la risposta”. Risultato? I ragazzi con la versione socratica partecipano di più, stanno più sul pezzo, interagiscono.

Perfetto, penseresti: “allora imparano meglio”. E invece no: sui test finali, quando l’IA non c’è, le differenze non sono nette, non hai questo salto di apprendimento che ti sbandierano in conferenza (papers.ssrn).

Io me li immagino: classe terza di informatica, compito di programmazione. Con l’IA in modalità tutor ti sembra di aver capito i cicli, gli array, tutto quanto. Poi all’interrogazione alla lavagna, senza aiuto, davanti a un esercizio leggermente diverso… puff, sparita la sicurezza. Lo vedi negli occhi degli studenti: “Ma prof, con la chat lo sapevo fare”. Eh, appunto.

Quando vai a guardare insieme le rassegne serie, alla fine la musica è sempre quella: questi sistemi aiutano davvero in un paio di cose, se li usi con la testa.

La prima è il feedback: su testi, bozze, esercizi, se li agganci bene ai criteri del docente riescono a restituire commenti rapidi che, in media, portano piccoli miglioramenti nella qualità del lavoro degli studenti. Non è una cura miracolosa, è un “po’ meglio di niente” o “vicino a un tutor non esperto” quando il docente da solo non riuscirebbe a seguire tutti.

La seconda è il ruolo di tutor leggero su esercizi a bassa posta: ripassi, spiegazioni brevi, chiarimenti su dettagli che bloccano. In questo tipo di attività gli studenti si tengono agganciati, sciolgono dubbi, si sbloccano su passaggi specifici.

Quello che manca? Tutto il resto. Quasi nessun dato serio su quanto ricordano dopo settimane, su quanto regge il pensiero critico, su come va davvero nelle scuole superiori.

Sui rischi, invece, c’è già un quadro abbastanza chiaro: quando la macchina sforna la risposta finita, gli studenti smettono di sbattersi. Meno controllo di qualità mentale, meno voglia di verificare, meno “aspetta, ma è davvero così?”. E se il prof non progetta attività dove devi controllare, discutere, correggere la macchina, è la fine: superficialità sopra superficialità (arxiv).

Capitolo docenti. Qui la favola è “risparmi tempo, vivi meglio”. Qualche dato c’è, eh: chi usa la macchina per preparare lezioni, tracce, griglie, dice di risparmiare qualche ora alla settimana. Non mille, non rivoluzione, qualche ora. Poi però ti ritrovi a rilegge, correggere, verificare, adattare, e una parte di quel tempo torna dalla finestra. Il “paradosso carico di lavoro” è questo: scrivi meno da zero, ma passi più tempo a fare il professionista che controlla la macchina. Se sei già al limite, non è detto che ti salvi, rischi solo di spostare la fatica (digitalcommons.acu).

E dov'è il valore vero allora? Quando lo usi come bersaglio.

La macchina genera una risposta e il lavoro della classe è controllarla, trovare errori, aggiungere ciò che manca, confrontarla con libri e materiali seri.

In quel caso non stai più insegnando a fidarsi della macchina, ma a dubitarne con criterio. Torni a leggere, sottolineare, discutere, scrivere meglio: la tecnologia diventa solo un innesco per far ragionare le persone in aula, non la soluzione pronta da copiare.

Lì tornano in gioco le cose serie: lettura critica, controllo delle fonti, argomentazione, scrittura ragionata. La macchina diventa un pretesto per obbligare gli studenti a non fidarsi del primo testo ben scritto che vedono, ma a far passare tutto dal proprio giudizio, dalla propria penna e dalla discussione in aula.

Tu che dici? Vuoi il trucchetto che ti promette voti alti in 3 mesi o vuoi tenerti stretta la cosa che nessun modello ti ruba, cioè lo sguardo sul ragazzo davanti a te e la capacità di fargli fare fatica giusta? Perché dai numeri veri, oggi, si vede solo questo: la macchina fa sentire tutti più bravi, ma senza un docente che ci mette mestiere e progettazione, l’apprendimento vero resta quello di sempre, sudato e poco instagrammabile (scale.stanford).