Nel panorama in continua evoluzione dell’Intelligenza Artificiale, si assiste oggi a una svolta importante: OpenAI rompe gli schemi della propria strategia e annuncia il rilascio dei primi modelli open weight dopo un quinquennio segnato da un approccio esclusivamente proprietario.
Con questa mossa, l’azienda californiana offre finalmente a ricercatori, sviluppatori e aziende la possibilità di scaricare, analizzare e personalizzare i pesi dei modelli linguistici GPT, senza più dipendere esclusivamente da API cloud esterne o infrastrutture centralizzate.
La notizia ha immediatamente catalizzato l’attenzione della comunità tecnologica e degli addetti ai lavori, in particolare per la presentazione di due nuovi modelli: gpt oss 120b e gpt oss 20b. Entrambi i modelli sono stati resi liberamente accessibili tramite le piattaforme Hugging Face e GitHub.
Gpt oss 120b e gpt oss 20b: cosa sono e come funzionano
La differenza principale tra i due modelli risiede nei requisiti hardware: gpt oss 120b è pensato per ambienti professionali, richiedendo almeno 60GB di VRAM distribuiti su più GPU, il che lo rende ideale per infrastrutture avanzate e data center. Al contrario, gpt oss 20b si distingue per la sua leggerezza e versatilità, risultando eseguibile anche su laptop dotati di 16GB di memoria. Questa accessibilità allarga sensibilmente la platea di potenziali utenti, offrendo nuove opportunità di sperimentazione e sviluppo a una fascia più ampia di professionisti e appassionati.
Sul fronte tecnico, entrambi i modelli implementano l’architettura mixture of experts (MoE), una soluzione avanzata che ottimizza l’allocazione delle risorse computazionali mantenendo alti livelli di capacità di ragionamento e generazione del linguaggio. I benchmark pubblicati indicano che gpt oss 120b raggiunge prestazioni paragonabili a OpenAI o4-mini, mentre gpt oss 20b si posiziona vicino a o3-mini, confermando la competitività dei nuovi rilasci rispetto agli standard di settore.
Nonostante l’entusiasmo generale, i primi test hanno evidenziato alcune criticità, in particolare la presenza di allucinazioni nei risultati generati, fenomeno noto nell’ambito dell’IA generativa e ancora oggetto di studio e miglioramento. Tuttavia, la scelta di distribuire i modelli con licenza Apache 2.0 – tra le più permissive nell’ecosistema open source – rappresenta un segnale forte di apertura: chiunque può utilizzare, modificare e persino monetizzare questi strumenti senza restrizioni significative, a differenza di quanto accade con le licenze più restrittive adottate da altri player come Meta per i modelli Llama.