OpenAI rilascia uno strumento per riconoscere i testi scritti con un'intelligenza artificiale

Gli autori di ChatGPT presentano AI Text Classifier, uno strumento gratuito per analizzare i testi e riconoscere quelli scritti dall'intelligenza artificiale. I risultati, però, lasciano a desiderare. Almeno per ciò che riguarda i testi in italiano.

I modelli generativi sui quali basano il loro funzionamento le moderne intelligenze artificiali come ChatGPT vengono utilizzati in molteplici ambiti. In molti casi i testi scritti da ChatGPT sono adoperati in ambito professionale e scolastico così come sono, senza una verifica puntuale delle informazioni restituite e limitandosi a un semplice “copia e incolla”.
Matt Welsh, ex docente presso l’Università di Harvard, in passato nelle fila di Google ed Apple, ha recentemente profetizzato la morte della programmazione informatica classica, sempre più sostituita dall’azione delle intelligenze artificiali.

Oggi OpenAI, organizzazione senza scopo di lucro responsabile – tra i tanti – anche del progetto ChatGPT, ha annunciato di aver reso disponibile il suo nuovo strumento gratuito AI Text Classifier.

Si tratta di un meccanismo che, ancora una volta, utilizza l’intelligenza artificiale per esaminare un testo e stabilire se sia stato scritto ricorrendo a strumenti come ChatGPT.
AI Text Classifier necessita di un testo lungo almeno 1.000 caratteri e dopo una breve scansione indica, con vari gradi di approssimazione, se il pezzo è stato verosimilmente redatto da un umano oppure da un’intelligenza artificiale.

Il nostro classificatore non è completamente affidabile“, ammette però OpenAI. In effetti, dopo averlo messo alla prova con testi certamente scritti usando ChatGPT e articoli integralmente prodotti da persone in carne ed ossa, il responso offerto da AI Text Classifier è risultato spesso scorretto, soprattutto con i contenuti in lingua italiana.
Durante i nostri test, AI Text Classifier ha riportato come scritti da un’intelligenza artificiale moltissimi articoli prodotti invece da persone in carne ed ossa. E ciò inviando anche testi lunghi che, secondo OpenAI, dovrebbero significativamente migliorare la qualità dell’analisi e la bontà del giudizio finale.

Nelle nostre valutazioni su un insieme di testi in inglese, il classificatore identifica correttamente il 26% del testo scritto dall’IA mentre etichetta erroneamente il testo scritto dagli umani il 9% delle volte (falsi positivi)“, si legge nella nota di presentazione del nuovo strumento.

Ti consigliamo anche

Link copiato negli appunti