Scuola e AI, il paradosso che spinge gli studenti a scrivere peggio

I sistemi che individuano testi generati da AI stanno cambiando il modo con cui gli studenti scrivono. Alcuni semplificano volutamente lo stile per non destare sospetti, mentre altri iniziano a usare l’AI proprio per evitare accuse. Qual è la retta via?

Il timore che gli studenti utilizzino strumenti di intelligenza artificiale per scrivere saggi e compiti ha spinto alcune scuole e università ad adottare software di rilevamento automatico dei testi generati da AI. L’obiettivo appare semplice: individuare eventuali elaborati prodotti con modelli linguistici. Tuttavia, l’introduzione di questi strumenti sta producendo effetti inattesi nel modo in cui gli studenti scrivono, studiano e perfino nel rapporto che sviluppano con la stessa AI.

Partiamo da un dato incontrovertibile: gli strumenti di AI detection, progettati per stimare la probabilità che un testo sia stato scritto da un modello generativo, sono tutt’altro che infallibili. Nella pratica queste tecnologie rimangono statistiche, imperfette e facilmente influenzabili da caratteristiche stilistiche superficiali.

Come funzionano i rilevatori di testo generato da AI

I sistemi di rilevamento non possiedono un metodo certo per stabilire se un contenuto sia stato creato con un Large Language Models (LLM). Operano invece con tecniche probabilistiche basate su indicatori linguistici. Tra i più utilizzati compaiono metriche come perplexity e burstiness, cioè misure che stimano quanto una sequenza di parole risulti prevedibile per un modello statistico e quanto la struttura sintattica subisca delle variazioni all’interno del testo.

I modelli generativi tendono a produrre frasi con distribuzioni lessicali relativamente regolari e con un livello di complessità controllato. I detector cercano quindi pattern simili confrontando il testo con moli di testo utilizzate in fase di addestramento e con modelli linguistici di riferimento. Alcuni strumenti combinano classificatori addestrati con dataset di contenuti umani e generati artificialmente, spesso tramite architetture di tipo transformer.

Il risultato, come anticipato nell’introduzione, non può quindi avere il benché minimo valore di prova. Al limite soltanto di “probabilità”, anche se – soprattutto con i testi in italiano – abbiamo verificato margini di errore colossali con testi scritti con l’AI non riconosciuti come tali e composizioni scritte da “persone in carne ed ossa” bollate con il “marchio” AI.

Anche un autore umano può produrre frasi molto regolari o utilizzare strutture linguistiche simili a quelle di un modello statistico. Per questo motivo la stessa industria dei meccanismi di AI detection riconosce apertamente che l’accuratezza rimane limitata e che i falsi positivi rappresentano un rischio concreto.

Quando scrivere bene diventa sospetto

Gli effetti di queste limitazioni emergono chiaramente nell’esperienza di molti studenti. Alcuni software segnalano come “probabilmente generati da AI” testi che presentano semplicemente un lessico ricercato o una sintassi particolarmente fluida.

Illuminante l’articolo di Mike Masnick che fotografa la situazione negli USA: in un caso riportato nel dibattito accademico recente, un elaborato scolastico ha ottenuto una segnalazione di contenuto artificiale a causa dell’uso della parola “devoid”. Sostituendo il termine con una variante più semplice, il punteggio di sospetto è sceso a zero.

Situazioni simili portano gli studenti a sperimentare un comportamento inatteso: modificare volontariamente il proprio stile per evitare di risultare troppo sofisticati. Alcuni arrivano a ridurre il vocabolario, semplificare le frasi o eliminare elementi stilistici come le linee di pensiero più elaborate o l’uso di punteggiatura complessa. Il risultato è una scrittura più piatta, meno personale e spesso meno accurata.

Una dinamica di questo tipo ricorda il cosiddetto effetto Cobra, termine utilizzato in economia comportamentale per descrivere politiche che producono l’effetto opposto rispetto all’obiettivo iniziale (suggeriamo di leggere i dettagli sulla vicenda probabilmente sviluppatasi in India ai tempi della dominazione britannica).

In questo caso il sistema pensato per scoraggiare l’uso dell’intelligenza artificiale finisce per incentivare comportamenti che peggiorano la qualità della scrittura.

L’effetto inatteso: studenti che iniziano a usare AI per difendersi

Un ulteriore paradosso emerge quando gli studenti utilizzano proprio gli strumenti di intelligenza artificiale per evitare di essere accusati di averli usati. Alcuni controllano i propri testi tramite modelli generativi o servizi online per capire se potrebbero essere classificati come sospetti dai detector. Lo racconta splendidamente Dadland Maye, docente universitario.

In pratica il processo di scrittura si trasforma in una sorta di test iterativo. Lo studente scrive il proprio elaborato, lo analizza con strumenti di AI, modifica le frasi che risultano problematiche e ripete il controllo. Non si tratta di un tentativo di barare, ma di una strategia difensiva per evitare accuse infondate.

Il risultato è che anche chi inizialmente non utilizzava modelli linguistici finisce per familiarizzare con questi strumenti.

Alcuni casi riportano situazioni ancora più radicali. Dopo accuse errate di utilizzo dell’AI, studenti hanno iniziato a studiare il funzionamento dei sistemi di rilevamento, sottoscrivendo servizi e analizzando le caratteristiche linguistiche che attivano i filtri automatici.

In altre parole, il sistema progettato per prevenire l’uso della tecnologia produce un incentivo all’apprendimento approfondito della stessa tecnologia.

Implicazioni educative e nuove strategie di valutazione

L’introduzione massiccia di sistemi automatici di rilevamento ha aperto una discussione più ampia sul modo in cui l’istruzione valuta le competenze di scrittura. Alcuni docenti preferiscono tornare a metodi più tradizionali, come saggi scritti in classe o revisioni iterative seguite direttamente dal professore. Altri sperimentano approcci che integrano apertamente l’uso dell’intelligenza artificiale nel processo didattico.

In molti contesti accademici si discute anche della necessità di ripensare la valutazione della scrittura nell’era dei modelli generativi. L’attenzione potrebbe spostarsi meno sul prodotto finale e più sul processo: sviluppo delle idee, revisione del testo, capacità di citazione delle fonti e costruzione di un’argomentazione originale.

La diffusione dei detector automatici ha quindi innescato un paradosso educativo. Nel tentativo di proteggere l’autenticità dei lavori accademici, alcune istituzioni rischiano di creare incentivi che rendono la scrittura più uniforme e spingono proprio verso l’uso delle tecnologie che intendono limitare.

L’uso consapevole dell’intelligenza artificiale come strumento di apprendimento

Un modello linguistico può funzionare come una scorciatoia sterile oppure come uno strumento di supporto cognitivo. La differenza sta proprio nel livello di consapevolezza dell’utente. Che sia uno studente, un professionista, una persona qualunque.

Quando uno studente usa un modello AI in modo passivo – copiando l’output senza comprenderlo, senza verificarlo e senza rielaborarlo – l’apprendimento si interrompe quasi completamente. In quella situazione lo strumento sostituisce il processo di ragionamento. Il risultato è fragile: basta una verifica orale, una prova in classe o una richiesta di approfondimento per far emergere le lacune.

L’uso consapevole segue invece una logica opposta. L’AI diventa una interfaccia di esplorazione delle idee. Lo studente può usarla per ottenere una prima struttura, individuare concetti chiave, confrontare interpretazioni o ricevere spiegazioni alternative su un argomento complesso. A quel punto però interviene la parte più importante del lavoro: la selezione critica delle informazioni, l’integrazione con fonti affidabili, la rielaborazione personale e la costruzione di un ragionamento.

In altre parole, il valore formativo nasce quando l’AI è trattata come uno strumento di supporto al pensiero, non come un sostituto. Questo richiede alcune competenze precise: capacità di verifica delle fonti, comprensione del funzionamento dei modelli linguistici, riconoscimento degli errori e delle cosiddette allucinazioni, cioè le informazioni plausibili ma inventate che i modelli possono generare.

C’è poi un altro aspetto spesso trascurato. Chi utilizza l’AI in modo riflessivo tende a sviluppare abilità utili anche quando lo strumento non è disponibile. Il processo di interrogazione del modello – formulare prompt, chiarire concetti, chiedere esempi, confrontare spiegazioni – obbliga a strutturare meglio le domande e quindi anche il proprio pensiero. In molti casi diventa una forma di dialogo cognitivo.

Le verifiche che vietano l’uso dell’AI, come compiti scritti in aula o prove orali, svolgono quindi una funzione importante. Permettono di distinguere chi ha realmente assimilato i concetti da chi si è limitato a delegare la scrittura a un sistema automatico. Chi ha usato l’AI come supporto allo studio, invece, spesso non incontra difficoltà: la conoscenza rimane comunque propria.

Per questo motivo molti esperti di didattica digitale sostengono che la soluzione non sia il divieto totale, ma l’alfabetizzazione all’uso dell’AI. Insegnare quando usarla, come verificarne le risposte e come integrarla in un processo di studio personale può trasformare uno strumento potenzialmente passivizzante in una leva di apprendimento.

Ti consigliamo anche

Link copiato negli appunti