Google Chrome installa un modello AI locale da 4 GB senza avvisare?

Chrome può installare modelli AI locali come Gemini Nano all'interno del utente. Il caso solleva dubbi su consenso, trasparenza, rimozione persistente e costi ambientali. Quali sono, invece, le opportunità per sviluppatori e utenti.

Chrome non è più soltanto un browser Web: su alcuni sistemi, Google predispone un meccanismo di intelligenza artificiale locale, basato su un Large Language Model (LLM) che funziona senza scambiare dati con il cloud: Gemini Nano.

Un modello locale come Gemini Nano non assomiglia a una lista di sicurezza da pochi megabyte: contiene pesi neurali, richiede hardware adatto e serve funzioni AI come scrittura assistita, protezione da truffe e API integrate nel browser. Il fatto è che, come obiettano in molti, il download di Gemini Nano e la sua integrazione con Chrome sembrano ad oggi sembra avvenire senza l’avanzamento di alcuna richiesta all’utente.

Nel 2026 Chrome mantiene una quota globale superiore al 68%: anche una distribuzione del modello AI integrato nel browser Web, può quindi coinvolgere centinaia di milioni di dispositivi.

Che cos’è davvero Gemini Nano e come funziona

Gemini Nano è una versione ottimizzata dei modelli della famiglia Gemini progettata per funzionare direttamente sul dispositivo locale. Si tratta di un LLM on-device, cioè un modello linguistico con miliardi di parametri compressi e adattati per funzionare su CPU e GPU consumer.

I pesi del modello sono scaricati da Chrome all’interno di un file chiamato weights.bin: sono una rappresentazione numerica dell’addestramento, caricata in memoria quando serve eseguire attività di inferenza ovvero elaborazioni guidate dal modello generativo.

Chrome espone API interne che permettono di inviare prompt in linguaggio naturale; il modello elabora localmente la richiesta e produce un output testuale. Nessuna chiamata server, almeno in teoria.

Il vantaggio è evidente: latenza bassa, possibilità di lavorare offline e riduzione della trasmissione di dati personali. Il rovescio della medaglia è che serve hardware adeguato e spazio su disco. Inoltre, la qualità delle risposte del modello può essere inferiore rispetto alle versioni cloud più grandi.

Le API integrate nel browser

Chrome non si limita a installare il modello: costruisce sopra un set di interfacce chiamate Built-in AI API. Sono API Web pensate per sviluppatori e accessibili da siti o estensioni. Tra quelle disponibili in anteprima troviamo Prompt API, Summarizer API, Language Detection API, Translation API e Writer/Rewriter API.

Queste API permettono di usare capacità AI senza gestire alcuna infrastruttura server: uno sviluppatore può integrare funzionalità avanzate direttamente nel frontend. Si pensi ad analisi del testo, sintesi, traduzione, classificazione. Tutto gira nel browser, sfruttando il modello locale.

Tra tutte, la più centrale è la Prompt API: consente di creare una sessione di interazione con il modello e inviare richieste in linguaggio naturale. Dal punto di vista tecnico, l’uso è molto simile alle API cloud, ma l’esecuzione resta confinata al dispositivo.

Mozilla ha per il momento contestato l’idea sollevando problematiche di interoperabilità, controllo e responsabilità. Ciononostante, Gemini Nano si fa sempre più spazio sui dispositivi degli utenti che usano Chrome come browser Web.

Che cosa finisce sul disco e perché è rilevante

Per sapere se anche voi foste tra gli utenti che stanno usando un’istanza di Chrome con il modello AI locale abilitato in automatico, è sufficiente premere Windows+R quindi digitare il seguente percorso:

%localappdata%\Google\Chrome\User Data

Premendo Invio, si può cercare la sottocartella OptGuideOnDeviceModel: se esiste e al suo interno compare weights.bin, il browser di Google è già configurato per il caricamento, quando necessario, del modello generativo.

Il punto è che “pronto all’uso” non equivale sempre a “richiesto dall’utente“: è possibile ritrovarsi con 4 gigabyte occupati senza aver premuto un pulsante del tipo “scarica un modello AI locale” oppure “consenti l’utilizzo dell’AI locale in Chrome“.

La scelta tecnica privilegia la latenza e la fluidità del prodotto: quando una funzione AI serve, il modello c’è già e può ad esempio essere invocato al bisogno. I più critici osservano che costi e controllo dell’impalcatura su cui si regge Gemini Nano sono spostati sul dispositivo dell’utente: spazio, traffico dati, eventuali nuovi download, consumo energetico.

Consenso, trasparenza e terminal equipment

Nel diritto europeo il punto delicato non riguarda soltanto i cookie. L’articolo 5(3) della direttiva ePrivacy disciplina la memorizzazione di informazioni o l’accesso a informazioni già presenti nel terminale dell’utente, salvo i casi strettamente necessari per un servizio richiesto.

Un modello da 4 GB scritto nel profilo utente del browser è informazione memorizzata sul terminale. La domanda, quindi, è: la disponibilita anticipata di funzioni AI è strettamente necessaria per fornire Chrome come browser?

Il GDPR entra in gioco quando Chrome valuta l’idoneità del dispositivo per le funzionalità AI, registra stati di installazione, collega funzioni AI a un profilo utente o tratta contenuti inseriti dall’utente nelle funzioni assistite.

In tanti contestano il precaricamento del modello AI per un uso eventuale, prima che l’utente abbia scelto consapevolmente di usarlo. Non basterebbe dire che l’inferenza resta locale: è necessario spiegare che cosa arriva sul dispositivo, per quale funzione, con quali dimensioni e quale opzione di rimozione è disponibile.

Una tecnologia utile, da gestire meglio

Le Built-in AI API rappresentano una direzione interessante per il Web: portare capacità avanzate direttamente nel browser, senza dipendere da servizi esterni. Per gli sviluppatori è un vantaggio enorme. Per gli utenti può esserlo, se la cosa è gestita in modo corretto.

Serve un modello di interazione chiaro: consenso esplicito, controllo reale sui file installati, distinzione netta tra AI locale e cloud: senza questi elementi, anche una tecnologia valida rischia di essere percepita come invasiva.

Chrome sta anticipando un futuro in cui il browser diventa una piattaforma AI completa. Ma quel futuro deve fare i conti con una regola semplice: il dispositivo resta dell’utente. E tutto ciò che ci finisce sopra dovrebbe passare, prima di tutto, da una scelta consapevole.

Un esempio concreto: analisi del sentiment in locale

Per capire come si usa davvero Gemini Nano integrato in Chrome, conviene guardare a un caso pratico.

Una semplice applicazione Web può appoggiarsi al modello locale, ad esempio, per analizzare recensioni e classificare il sentiment senza inviare dati a un server esterno. Il flusso è questo: si prende il testo della recensione, lo si passa al modello tramite Prompt API, si riceve una risposta strutturata.

Il codice segue una logica semplice: si crea una sessione AI con un prompt di sistema, poi si invia una richiesta dinamica:

await ai.languageModel.create({ systemPrompt: 'Sei un esperto analista di recensioni' });

await session.prompt('Analizza il sentiment e indica cosa è piaciuto o meno: ' + testo);

Il modello restituisce un output che può essere trasformato in etichette, liste e punteggi: si realizza un sistema di elaborazione del linguaggio naturale (NLP, cioè tecniche che permettono a un computer di comprendere e generare testo) eseguito direttamente nel browser e integrato nell’interfaccia del sito: non è necessario un server di backend, né chiavi API per servizi esterni, né alcuna infrastruttura cloud.

Attivazione, requisiti e limiti tecnici

Al momento, molte di queste funzionalità sono disponibili per un numero limitato di utenti. Per attivarle servono flag specifici (chrome://flags), tra cui optimization-guide-on-device-model e prompt-api-for-gemini-nano. Serve anche hardware adeguato: tipicamente almeno 16 GB di RAM o configurazioni equivalenti su Apple Silicon.

Va detto però che l’esperienza non è ancora stabile. Le API possono cambiare, i modelli vengono aggiornati e alcune funzionalità spariscono o si evolvono rapidamente. Non è un ambiente ancora pensato per la produzione, ma piuttosto per sperimentazione e sviluppo.

Per verificare se il modello fosse disponibile, si può accedere agli Strumenti per gli sviluppatori di Chrome (F12), cliccare su Console, digitare allow pasting quindi l’istruzione che segue:

await LanguageModel.availability()

Conclusioni

L’integrazione di Gemini Nano all’interno di Google Chrome segna un passaggio rilevante: il browser non è più soltanto un intermediario tra utente e Web, ma diventa un ambiente di esecuzione capace di ospitare modelli di intelligenza artificiale direttamente sul dispositivo. Parte dell’elaborazione – e quindi del controllo – si sposta così dal cloud al terminale dell’utente, con vantaggi evidenti in termini di latenza, continuità operativa offline e potenziale riduzione della circolazione dei dati.

D’altra parte, il fatto che un modello di grandi dimensioni possa essere scaricato e reso disponibile senza un’interazione esplicita è fonte di preoccupazione: l’utente può non avere percezione di ciò che viene installato, né delle risorse impegnate. In un contesto in cui Chrome mantiene una diffusione dominante, queste scelte possono avere un impatto su scala estremamente ampia.

Dal punto di vista funzionale, le Built-in AI API rappresentano un’evoluzione significativa dello sviluppo Web: consentono di costruire applicazioni avanzate senza infrastruttura server, sfruttando direttamente capacità di elaborazione locale. È uno schema che apre scenari interessanti, ma richiede anche un quadro più chiaro di responsabilità, interoperabilità e controllo, come evidenziato anche da Mozilla.

Ti consigliamo anche

Link copiato negli appunti