/https://www.ilsoftware.it/app/uploads/2025/07/wp_drafter_483188.jpg)
Nel panorama in continua evoluzione della grafica digitale, la valutazione della qualità visiva rappresenta da sempre una sfida complessa e cruciale, specialmente per settori come quello dei videogiochi e delle applicazioni 3D. Le metriche tradizionali, ormai considerate obsolete, spesso non riescono a cogliere le reali percezioni degli utenti, mentre i test soggettivi richiedono tempo e risorse considerevoli. In questo contesto, Intel ha appena lanciao la tecnologia CGVQM (Computer Graphics Visual Quality Metric), ovviamente basata sull’AI, potenzialmente rivoluzionaria.
Che cos’è Intel CGVQM e come funziona
CGVQM è uno strumento open source che sfrutta l’intelligenza artificiale per analizzare contenuti generati dalle tecniche più avanzate, come DLSS, XeSS, FSR, path tracing e Gaussian splatting, fornendo una valutazione oggettiva e scalabile della qualità visiva.
La proposta di Intel nasce dalla necessità di superare i limiti delle metriche convenzionali, come PSNR e SSIM, che risultano poco efficaci nel contesto della grafica in tempo reale e non sono in grado di identificare in modo affidabile le distorsioni visive generate dai moderni processi di rendering.
Il cuore dell’innovazione risiede nel dataset proprietario CGVQD, che raccoglie 80 clip video provenienti da 15 ambienti 3D open source, tra cui la celebre demo Bistro di Amazon e scenari come House e Bridge. Queste sequenze sono state elaborate attraverso diversi metodi di rendering, generando un’ampia gamma di distorsioni visive per testare la robustezza del sistema.
Un panel di 20 partecipanti ha valutato la qualità delle immagini utilizzando una scala che va da “impercettibile” a “molto fastidiosa”, producendo i Difference Mean Opinion Scores (DMOS) necessari all’addestramento della rete neurale 3D ResNet 18.
Il funzionamento di CGVQM si basa sull’analisi di segmenti video, nei quali la rete neurale è in grado di isolare caratteristiche visive specifiche, individuando con precisione le aree soggette a distorsioni visive. Questo processo consente la generazione di mappe di errore localizzate, uno strumento prezioso per gli sviluppatori che possono così intervenire puntualmente per migliorare la qualità visiva delle proprie produzioni.
Il sistema viene distribuito in due varianti: CGVQM-5, ottimizzato per la massima accuratezza, e CGVQM-2, pensato per contesti in cui la velocità di elaborazione è prioritaria.
CGVQM: massima compatibilità
Un altro punto di forza di CGVQM è la sua integrazione con i principali strumenti di sviluppo: il supporto diretto a Unreal Engine e alle API Vulkan facilita l’adozione nei flussi di lavoro esistenti, permettendo una valutazione continua e automatizzata della qualità visiva durante le fasi di sviluppo e testing.
La tecnologia trova inoltre applicazione nell’ottimizzazione dei denoiser neurali utilizzati per il ray tracing e il path tracing in tempo reale. Grazie alla sua natura differenziabile, CGVQM può essere utilizzato come funzione di perdita durante l’addestramento di modelli neurali, guidando il miglioramento dei risultati visivi in modo scientifico e replicabile.
Guardando al futuro, i ricercatori di Intel stanno già lavorando a versioni evolute del sistema, basate su architetture transformer e arricchite dall’integrazione di flusso ottico e meccanismi di attenzione spaziale temporale. L’obiettivo è ampliare ulteriormente la capacità del sistema di cogliere le sfumature della percezione umana, arrivando a sviluppare una variante no reference che permetta la valutazione della qualità visiva anche in assenza di una versione originale di confronto, come nei casi di gameplay reale o streaming cloud.