Samsung presenta TRM, la mini AI che spaventa OpenAI e Google

TRM dimostra che con 7 milioni di parametri può ottenere prestazioni di alto livello su benchmark: sfida lanciata a OpenAI e Google.
Samsung presenta TRM, la mini AI che spaventa OpenAI e Google

Nel panorama in continua evoluzione dell’Intelligenza Artificiale, dove spesso la dimensione dei modelli sembra dettare legge, una nuova proposta mette in discussione le regole del gioco.

Stiamo parlando di TRM, acronimo di Tiny Recursion Model, una soluzione che nasce dalla mente brillante della ricercatrice Alexia Jolicoeur-Martineau di Samsung. Il suo lavoro si distingue per un approccio radicalmente diverso rispetto ai colossi dell’AI: dimostrare che “piccolo” può essere non solo bello, ma anche straordinariamente efficace nei test di recursive reasoning.

Il cuore della rivoluzione sta tutto nei numeri, con i 7 million di parametri usati. È questa la dimensione contenuta del modello, che può essere addestrato in appena due giorni su quattro GPU NVIDIA H100, con un training cost che non supera i 500 dollari. Un risultato che mette in discussione la convinzione secondo cui solo modelli massicci, sostenuti da investimenti milionari, siano in grado di affrontare e risolvere problemi complessi di ragionamento.

Le prestazioni di TRM sono sorprendenti e i dati parlano da soli: il modello raggiunge il 45% di accuratezza su ARC AGI-1 e l’8% su ARC AGI-1 2, un impressionante 87.4% su Sudoku-Extreme e l’85% su Maze-Hard. In alcuni casi, queste performance superano addirittura quelle di sistemi ben più grandi e noti, come OpenAI o3-mini e Google Gemini 2.5 Pro. Un risultato che non passa inosservato e che riapre il dibattito sull’efficacia delle architetture leggere rispetto alla pura forza bruta computazionale.

TRM: qual è il segreto dietro alla potenza di questo modello AI

La chiave di questa innovazione risiede nella semplicità e nell’eleganza dell’architettura: dopo aver testato soluzioni più articolate come l’Hierarchical Reasoning Model (HRM), la ricercatrice ha scelto una via minimalista. TRM si basa su una rete neurale a due livelli applicata ricorsivamente sullo stesso input, una tecnica che consente di simulare una profondità computazionale elevata pur mantenendo basso il numero di parametri.

Non è un caso che Sudoku-Extreme e Maze-Hard siano i terreni di prova ideali per questa architettura: in questi domini, TRM riesce a raggiungere o addirittura superare le prestazioni di modelli molto più potenti, dimostrando che una progettazione mirata può battere la mera crescita dimensionale. Tuttavia, sui benchmark ARC AGI, progettati per testare la capacità di ragionamento generale, i risultati sono più sfaccettati: ottimi su ARC AGI-1, ma decisamente più modesti su ARC AGI-2. Un segnale che, pur eccellendo in specifici contesti, il modello ha ancora margini di miglioramento per quanto riguarda la generalizzazione.

Gli esperti sottolineano che le eccellenti performance di TRM su puzzle strutturati non garantiscono automaticamente risultati equivalenti su compiti linguistici o multimodali, dove la varietà e la complessità delle informazioni richiedono approcci diversi. Il modello, infatti, è stato pensato per problemi che traggono vantaggio da rappresentazioni discrete e logica iterativa, lasciando aperta la questione della sua applicabilità a scenari più ampi come la comprensione del linguaggio naturale o l’interazione dialogica.

Un ulteriore elemento di incertezza riguarda la disponibilità del modello: al momento non è chiaro se il codice di TRM verrà rilasciato pubblicamente, permettendo così alla comunità scientifica di validare e sviluppare ulteriormente questa linea di ricerca. La scelta avrà un impatto significativo sulla possibilità di replicare i risultati e di estendere l’approccio a nuovi contesti applicativi.

Ti consigliamo anche

Link copiato negli appunti