AWS ha progettato i nuovi chip Graviton4 e Trainium2, da oggi disponibili

AWS spinge sul machine learning e sulle applicazioni basate sull'intelligenza artificiale con i nuovi chip Graviton4 e Trainium2. Sono già tanti i clienti che li utilizzano per sostenere il funzionamento delle loro applicazioni.

Gli ingegneri di Amazon Web Services (AWS) hanno progettato una coppia di nuovi chip, Graviton4 e Trainium2, oggi portati al debutto. L’obiettivo è quello di soddisfare le crescenti esigenze dei clienti che si affidano ai servizi cloud dell’azienda rimanendo in una posizione competitiva rispetto alle piattaforme rivali.

I nuovi processori Graviton4 e Tranium2 migliorando le performance con un ampio ventaglio di carichi di lavoro, compresi quelli legati al machine learning e alle procedure di addestramento delle intelligenze artificiali. Amazon sottolinea che i chip appena svelato rappresentano il “non plus ultra” in termini di prestazioni, efficienza energetica e innovazione.

AWS presenta i chip Graviton4 e Trainium2

AWS Graviton4

Graviton4 è progettato per essere il processore AWS più potente ed efficiente dal punto di vista energetico mai utilizzato fino ad oggi. Offre un miglioramento del 30% delle prestazioni di calcolo, il 50% in più di core e il 75% in più di larghezza di banda per l’accesso alla memoria rispetto ai processori Graviton3 della generazione precedente.

L’azienda offre la possibilità di eseguire praticamente qualsiasi applicazione o carico di lavoro su Amazon Elastic Compute Cloud (Amazon EC2). Non per niente, tra i clienti ci sono realtà quali Anthropic, Databricks, Datadog, Epic, Honeycomb e SAP che si servono dei chip Graviton4 per gestire database, strumenti di analisi, server Web, processi batch, servizi pubblicitari, server di applicazioni e microservizi.

AWS Trainium2

Un chip come Trainium2 è progettato per fornire le prestazioni di calcolo migliori per l’addestramento dei modelli di machine learning su AWS. Per queste specifiche attività, oggi sempre più comuni e pesanti, il processore offre fino a 4 volte le prestazioni dei chip Trainium di prima generazione. Può essere implementato all’interno di EC2 UltraClusters composti da un numero massimo di 100.000 chip.

Ovvio che con queste premesse, diventa possibile ottimizzare il funzionamento dei modelli di base dei LLM (modelli linguistici di grandi dimensioni) in un lasso di tempo ridotto e con un miglioramento dell’efficienza energetica doppio.

D’altre parte, i moderni modelli generativi utilizzano miliardi di parametri che richiedono capacità di calcolo massicce e prestazioni di computing elevate.

AWS rivela che clienti come Anthropic stanno utilizzando Trainium2 per costruire e allenare modelli su larga scala, esplorando nuove possibilità nell’utilizzo dei sistemi di intelligenza artificiale avanzati.

Ti consigliamo anche

Link copiato negli appunti