/https://www.ilsoftware.it/app/uploads/2025/02/ILSOFTWARE-7-1.jpg)
L’ansia per il futuro della Intelligenza Artificiale non è mai stata così palpabile come nelle ultime settimane, complice una dichiarazione sorprendente di Sam Altman, CEO di OpenAI.
Durante una recente intervista nel podcast “This Past Weekend with Theo Von”, Altman ha condiviso la sua esperienza personale con il nuovo modello GPT 5, lasciando intendere che le capacità raggiunte da questa tecnologia siano così avanzate da suscitare preoccupazione persino tra i suoi stessi creatori. Il suo commento “Cosa abbiamo fatto?” riecheggia come un monito, evocando parallelismi inquietanti con il Progetto Manhattan e sottolineando i rischi potenziali di una corsa allo sviluppo tecnologico senza freni.
Altman ha descritto il test di GPT 5 come un’esperienza profondamente inquietante, segnata da una velocità e una potenza di calcolo tali da provocare una reazione di ansia anche in chi lavora quotidianamente con sistemi AI. “Non ci sono adulti nella stanza”, ha affermato Altman, evidenziando l’assenza di un’adeguata supervisione e di regole chiare in un settore che sta evolvendo più rapidamente della capacità di comprenderne e gestirne le implicazioni etiche e sociali. Questa presa di posizione ha acceso un dibattito globale sulla responsabilità degli sviluppatori e sulle conseguenze di affidare decisioni critiche a sistemi che, seppur sofisticati, restano in parte una “scatola nera” anche per chi li progetta.
GPT-5 potenzialmente pericoloso?
Il nuovo GPT 5 promette di essere un salto quantico rispetto ai modelli precedenti, introducendo funzionalità inedite e un livello di interazione uomo-macchina mai visto prima. Le sue prestazioni, in termini di velocità e capacità di comprensione, potrebbero rivoluzionare non solo il modo in cui interagiamo con la tecnologia, ma anche numerosi settori industriali.
Tuttavia, questa prospettiva di innovazione porta con sé un dilemma fondamentale: come possiamo fidarci di tecnologie che persino i loro creatori dichiarano di non comprendere pienamente? L’assenza di una governance AI solida e condivisa espone aziende e consumatori a rischi difficilmente prevedibili, soprattutto in settori dove la sicurezza e l’affidabilità sono imprescindibili.
Le dichiarazioni di Sam Altman non sono un fulmine a ciel sereno. Già in passato il CEO di OpenAI aveva espresso forti riserve sull’evoluzione incontrollata dell’AI, sottolineando come la mancanza di una responsabilità collettiva possa portare a scenari critici. Con l’avvicinarsi del lancio di GPT 5, il tema di una gestione etica dell’AI torna al centro dell’attenzione, sollecitando governi, imprese e società civile a riflettere sulla necessità di regolamentazioni più stringenti e su una maggiore trasparenza nello sviluppo di queste tecnologie.