AI nuova rivoluzione industriale? Fischi e urla interrompono la cerimonia di laurea

I fischi contro un discorso pro-AI durante una cerimonia di laurea negli USA mostrano la crescente paura dei giovani verso automazione, lavori creativi e riduzione delle posizioni entry-level.

Una cerimonia di laurea alla University of Central Florida (UCF) si è trasformata, per qualche minuto, in una sorta di referendum spontaneo sull’intelligenza artificiale (AI). Gloria Caulfield, dirigente del settore immobiliare invitata come speaker per un intervento dinanzi ai laureati della Nicholson School of Communication and Media, ha definito l’AI come “la prossima rivoluzione industriale“. La risposta della platea non si è fatta attendere: fischi, urla e contestazioni in diretta durante il discorso.

L’episodio non rappresenta soltanto una scena imbarazzante durante una celebrazione universitaria; riflette le criticità che stanno attraversando il mercato del lavoro statunitense. Secondo diversi sondaggi citati nelle ultime settimane da media americani e istituti accademici, una quota crescente di neolaureati considera i sistemi di AI generativa una minaccia diretta per le professioni creative, amministrative e comunicative. Molti studenti vedono cambiare a loro sfavore i requisiti d’ingresso nel mondo lavoro.

Tra il 2023 e il 2026 le grandi piattaforme di AI generativa hanno accelerato in modo impressionante: GPT, Claude, Gemini e modelli open source come Llama hanno iniziato a produrre testi, immagini, codice e contenuti audio con qualità sufficiente da entrare nei processi produttivi reali. Aziende media, software house, agenzie marketing e studi grafici hanno iniziato a integrare strumenti di automazione basati su LLM e modelli multimodali; spesso riducendo attività affidate in passato a personale junior.

AI come prossima rivoluzione industriale: perché gli studenti hanno reagito così duramente

Durante il discorso, Caulfield ha provato a costruire un parallelo storico con la diffusione di Internet negli anni ’90. L’idea era semplice: anche allora esistevano timori simili, ma la rete ha poi creato nuove industrie e nuove opportunità economiche: la platea, però, non ha accettato il paragone.

Internet, almeno nella sua fase iniziale, ampliava il numero di attività digitali disponibili. L’AI generativa, invece, è percepita da molti giovani come una tecnologia progettata per sostituire lavoro cognitivo umano.

Negli USA diversi dirigenti tecnologici hanno collegato pubblicamente tagli al personale all’adozione di sistemi di automazione basati su AI. Alcune aziende hanno ridotto team di customer support, copywriting, produzione contenuti e sviluppo di software entry-level dopo l’introduzione di strumenti capaci di generare output in pochi secondi. Il fatto è che molte di queste attività coincidevano fino a poco tempo fa con i primi incarichi professionali necessari per costruire esperienza.

Dietro i fischi c’è un problema culturale

Le reazioni degli studenti non vanno mai sottovalutate: i fischi e le critiche sono di giovani che percepiscono una distanza crescente tra dirigenti aziendali e lavoratori emergenti. Quando un manager parla di innovazione tecnologica durante una fase di forte precarietà occupazionale, il rischio di apparire distante dalla realtà quotidiana è altissimo.

Pronunciare frasi ottimistiche sull’AI davanti a futuri giornalisti, designer e creativi proprio mentre il settore discute licenziamenti, automazione e contenuti sintetici non era probabilmente l’approccio più prudente.

Resta però una contraddizione interessante. Molti degli stessi studenti che contestano l’AI utilizzano quotidianamente chatbot, generatori di immagini o assistenti automatici per studiare, programmare e produrre contenuti. La relazione i modelli generativi è quindi ambivalente: paura e dipendenza convivono nello stesso momento.

Proprio studenti di comunicazione e media dovrebbero probabilmente distinguere meglio tra narrativa pubblica e realtà tecnica. Oggi molte aziende e molti dirigenti usano un linguaggio quasi messianico sull’AI: “nuova rivoluzione industriale“, “produttività senza precedenti“, “trasformazione inevitabile“. Chi conosce i media dovrebbe riconoscere quanto queste formule servano anche a creare consenso economico e finanziario.

Personalmente penso che l’errore più grande sarebbe ridurre tutto a due estremi: “l’AI distruggerà tutto” e “chi ha paura non capisce il progresso“.

Entrambe le letture semplificano troppo. La storia dell’informatica mostra che le tecnologie aumentano la produttività, ma redistribuiscono anche potere, competenze e accesso al lavoro. E quella redistribuzione raramente è indolore, soprattutto per chi entra nel mercato proprio durante la transizione.

Quando l'”AI sarà la prossima rivoluzione industriale” lo diceva Geoffrey Hinton

Anche a dicembre 2025, il premio Nobel Geoffrey Hinton parlava di “prossima rivoluzione industrialeriferendosi proprio all’AI.

Hinton è considerato uno dei principali pionieri del deep learning, cioè l’approccio che ha reso possibile l’attuale esplosione dell’AI generativa. Insieme a ricercatori come Yann LeCun e Yoshua Bengio ha rilanciato, tra gli anni ’80 e 2000, lo studio delle reti neurali artificiali in un periodo in cui gran parte della comunità accademica le considerava poco praticabili.

Il contributo più famoso di Hinton riguarda l’algoritmo di backpropagation, sviluppato e perfezionato insieme a David Rumelhart e Ronald Williams negli anni ’80. Il sistema permette a una rete neurale di correggere progressivamente i propri errori modificando i pesi interni durante l’addestramento.

Successivamente il suo gruppo di ricerca ha lavorato su architetture profonde capaci di riconoscere immagini, voce e pattern complessi con accuratezza crescente. Una svolta arrivò nel 2012 con AlexNet, sviluppata dai suoi studenti Alex Krizhevsky e Ilya Sutskever: una rete neurale convoluzionale addestrata su GPU in grado di ridurre drasticamente il tasso di errore nel riconoscimento immagini.

Quel risultato convinse l’industria tecnologica che il deep learning funzionava davvero su larga scala. Da lì partirono investimenti enormi in modelli neurali, acceleratori hardware (basati ad esempio su GPU NVIDIA) e sistemi sempre più grandi basati su miliardi di parametri.

Si può fischiare un premio Nobel?

La formula “l’AI è la prossima rivoluzione industriale” pronunciata dalla Caulfield presso l’incontro alla UCF richiama chiaramente lo stesso tipo di paragone utilizzato da Hinton. Se uno studente reagisce esclusivamente allo slogan, allora il rigetto finisce inevitabilmente per colpire anche una lettura condivisa da molti pionieri dell’AI.

Quando Hinton parla di rivoluzione industriale non sta celebrando un futuro inevitabilmente positivo. Anzi. Il suo ragionamento è quasi opposto rispetto alla narrativa aziendale ottimistica: sostiene che l’impatto sarà enorme proprio perché l’AI potrebbe alterare occupazione, distribuzione della ricchezza e rapporti di potere in modo molto più rapido rispetto alle trasformazioni precedenti. In pratica Hinton usa il paragone come avvertimento. Molti dirigenti lo usano invece come messaggio motivazionale.

Se un ricercatore come Hinton tenesse un discorso spiegando anche rischi, limiti dei LLM (Large Language Models), problemi di controllo e conseguenze sociali, probabilmente la reazione sarebbe diversa. Lui stesso ha espresso più volte timori sulla concentrazione del potere tecnologico e sull’impatto occupazionale dell’AI.

Il punto interessante è un altro: i fischi mostrano quanto il dibattito pubblico sull’intelligenza artificiale si sia ormai spostato dalla dimensione tecnica a quella sociale. Ormai non basta dire “la tecnologia creerà nuove opportunità“: una parte crescente della popolazione vuole capire chi perderà potere, chi perderà lavoro e chi controllerà gli strumenti.

E forse proprio qui si trova l’ironia della situazione. Hinton, che ha contribuito in modo decisivo alla nascita del deep learning, oggi appare spesso molto più prudente di tanti manager e consulenti che parlano di AI senza avere la stessa profondità tecnica.

Scuole e università stanno insegnando davvero come funziona l’AI?

Una parte del problema riguarda probabilmente anche il modo in cui scuole e università stanno affrontando il tema AI.

In molti casi gli studenti utilizzano chatbot e modelli generativi ogni giorno, ma senza una reale comprensione tecnica dei meccanismi sottostanti: si conosce l’interfaccia; molto meno il funzionamento. Inoltre la struttura didattica spesso impone paletti assolutamente fuori luogo.

Un LLM non “ragiona” nel senso umano del termine: lavora attraverso correlazioni statistiche apprese durante l’addestramento su enormi quantità di dati. Non comprende davvero il significato delle informazioni che produce e può generare errori, allucinazioni, citare fonti inesistenti o contenuti formalmente convincenti ma concettualmente sbagliati. Il fatto è che molti utenti, compresi gli studenti universitari, tendono ancora ad attribuire ai sistemi generativi capacità cognitive che non possiedono.

Qui entra in gioco la formazione. Le università non dovrebbero limitarsi a discutere se usare o vietare ChatGPT e “soci”; dovrebbero insegnare come riconoscere limiti, bias, problemi di affidabilità e implicazioni economiche dei modelli generativi.

Comprendere l’AI non significa soltanto saper scrivere prompt efficaci, ma capire dove la macchina accelera il lavoro e dove invece continua a servire giudizio umano.

Dove finisce davvero il lavoro dell’AI e inizia quello umano

L’errore più comune consiste nel ragionare in termini assoluti: o l’AI sostituirà completamente le persone oppure resterà soltanto uno strumento marginale.

La realtà è molto più complessa: i modelli generativi eccellono nella velocità, nella sintesi e nell’automazione di compiti ripetitivi; faticano invece quando servono responsabilità, interpretazione profonda, esperienza concreta e comprensione del contesto umano.

Un chatbot può produrre una bozza di articolo in pochi secondi, ma non possiede esperienza diretta, sensibilità editoriale, capacità investigativa o responsabilità legale sui contenuti pubblicati. Può generare codice funzionante, ma non comprende realmente requisiti aziendali, implicazioni di sicurezza o conseguenze architetturali a lungo termine.

In pratica l’AI riduce il tempo necessario per alcune attività; non elimina automaticamente il valore del lavoro umano qualificato.

Al di là dei fischi e dei “buuu“, la vera sfida sarà quindi imparare a collaborare con questi strumenti senza delegare completamente pensiero critico, verifica e capacità decisionale. È proprio qui che formazione, consapevolezza tecnica e cultura digitale iniziano a fare la differenza.

I modelli generativi vanno considerati come “copiloti“, aiutanti da utilizzare per snellire i flussi di lavoro e concentrarsi su ciò che conta davvero, non come sostituti dell’uomo.

Chi comprende questo, a tutti i livelli, tende a utilizzare l’AI in modo “sano”: non per eliminare competenze, ma per alleggerire attività ripetitive, accelerare analisi, organizzare informazioni e liberare tempo da dedicare a creatività, verifica, strategia e capacità decisionali.

Ti consigliamo anche

Link copiato negli appunti