Ollama lancia la nuova app desktop: modelli AI multimodali e interazione semplificata

Ollama, piattaforma open source per l'esecuzione locale di modelli AI, ha rilasciato una nuova applicazione desktop per macOS e Windows. L'app introduce un'interfaccia intuitiva, supporto drag-and-drop per documenti, elaborazione multimodale avanzata (incluso l'input visivo), analisi del codice e gestione del contesto estesa.

Ollama è una piattaforma open source che consente di eseguire modelli linguistici di grandi dimensioni (LLM) direttamente in locale, su macOS, Windows e Linux. A differenza di molti altri strumenti basati sul cloud, Ollama permette agli utenti di scaricare, gestire e interagire con modelli AI senza connessione Internet, garantendo maggiore privacy, controllo e flessibilità. Supporta una vasta gamma di modelli compatibili, sia testuali che multimodali, ed è progettata per adattarsi a flussi di lavoro professionali, tecnici e creativi. In un altro articolo abbiamo visto come funziona Ollama.

A maggio 2025 era arrivato il supporto per i modelli multimodali, con Ollama divenuto in grado di coadiuvare l’estrazione e l’elaborazione di dati contenuti, ad esempio, all’interno di immagini e video. I responsabili del progetto hanno adesso annunciato la disponibilità della nuova applicazione desktop per macOS e Windows che integra funzionalità avanzate come l’elaborazione di documenti, il supporto multimodale avanzato e la possibilità di estendere il contesto operativo dei modelli.

Perché Ollama è definito un “runner”

In ambito AI, un runner è un componente software che si occupa di scaricare, gestire, avviare ed eseguire modelli di intelligenza artificiale in locale. Non è un modello in sé, ma un ambiente di esecuzione, spesso ottimizzato per gestire:

  • Caricamento dei pesi del modello
  • Ottimizzazione delle prestazioni (es. uso di GPU, caching, quantizzazione)
  • Input/output strutturato per interagire con il modello
  • Integrazione con API locali o interfacce utente

Ollama svolge esattamente questa funzione: è un runner per LLM che semplifica il deployment locale di modelli come LLaMA, Mistral, Gemma, Phi, e molti altri. Consente all’utente di lanciare un modello con un semplice comando o clic, di interrogarlo in modo interattivo e di personalizzarne il comportamento tramite parametri di configurazione, contesto, temperatura e così via.

Chatta con i modelli, direttamente dal desktop

La nuova app Ollama offre un’interfaccia utente semplificata e reattiva che consente agli utenti di scaricare, eseguire in locale e interagire con modelli AI in modo rapido, senza passare dalla riga di comando. Questa esperienza fluida è pensata per rendere l’intelligenza artificiale conversazionale più accessibile, anche a chi non ha competenze tecniche avanzate.

Con pochi clic è possibile avviare una chat con un modello installato localmente, configurarne le impostazioni e iniziare a porre domande, eseguire analisi ed elaborare contenuti.

Trascina e rilascia: dialogo diretto con i file

Una delle novità più apprezzate è la funzione drag-and-drop, che consente di trascinare documenti di testo o PDF direttamente nell’interfaccia della chat. I modelli possono così elaborare contenuti strutturati, analizzare report, sintetizzare articoli o rispondere a domande su documenti complessi, tutto all’interno dell’app.

Per chi lavora con documentazione tecnica, policy aziendali, report analitici o dataset, questa funzione rappresenta un importante salto di qualità in fatto di produttività.

Estensione del contesto: analisi di documenti di grandi dimensioni

Nelle impostazioni avanzate, Ollama consente di modificare la lunghezza del contesto (context length), parametro cruciale per gestire input testuali di grandi dimensioni. Un contesto più esteso permette al modello di “memorizzare” e correlare più informazioni contemporaneamente, migliorando la coerenza e la profondità delle risposte.

Va sottolineato, tuttavia, che aumentare la lunghezza del contesto comporta un maggiore utilizzo di memoria RAM, tanto che la nuova versione di Ollama potrebbe richiedere hardware più performante.

Supporto multimodale migliorato

Grazie all’adozione del nuovo motore multimodale di Ollama, l’app supporta anche l’invio di immagini ai modelli compatibili. È il caso, ad esempio, di Gemma 3, il potente modello multimodale sviluppato da Google DeepMind, capace di comprendere ed elaborare input visivi oltre che testuali.

Questo apre le porte a nuovi scenari di utilizzo, come l’analisi di diagrammi, la comprensione di grafici, il riconoscimento di elementi visivi in contesti documentali o formativi.

Elaborazione di codice e scrittura di documentazione tecnica

La nuova app Ollama è anche uno strumento prezioso per sviluppatori e team DevOps, grazie alla capacità dei modelli di comprendere file di codice. È possibile utilizzare l’app per generare documentazione, spiegare funzioni, individuare bug o semplicemente commentare codice sorgente.

In combinazione con la funzione drag-and-drop per i file, grazie a Ollama la revisione e la spiegazione del codice diventano attività più intuitive e veloci da svolgere.

Come iniziare

La nuova app Ollama per macOS e Windows è disponibile per il download gratuito sul sito ufficiale. Per gli utenti che preferissero l’uso esclusivo da terminale, sono sempre disponibili anche le versioni CLI standalone, scaricabili dalla pagina GitHub del progetto.

Con questa nuova release, Ollama si posiziona come uno degli strumenti open source più completi e accessibili nel panorama delle AI generative eseguibili in locale, unendo facilità d’uso, potenza e versatilità in un’unica piattaforma.

Ti consigliamo anche

Link copiato negli appunti