Chip TPU di Google, cos'è. Ecco la seconda generazione per spingere sull'intelligenza artificiale

Alla Google I/O 2017 i tecnici dell'azienda di Mountain View presentano la seconda generazione dei chip TPU (Tensor Processing Units) utilizzati per le applicazioni di machine learning e intelligenza artificiale in generale.

Durante la prima giornata della Google I/O di quest’anno, i tecnici della società fondata da Larry Page e Sergey Brin hanno presentato la seconda generazione delle TPU (Tensor Processing Units) utilizzate per le attività di machine learning e per le applicazioni di intelligenza artificiale in generale.
Battezzati Cloud TPU, i chip appena presentati da Google rivestiranno un ruolo ancora più determinante nello sviluppo di progetti basati sull’utilizzo di reti neurali (vedere Intelligenza artificiale, cos’è e qual è la differenza con il machine learning).

Si pensi che l’intelligenza artificiale è adesso ampiamente sfruttata nel motore di ricerca di Google per decidere i risultati più pertinenti da proporre agli utenti in risposta a una qualunque interrogazione, viene adoperata per migliorare la qualità delle traduzioni di Google Translate, per catalogare le immagini elaborate da Google Foto e permettere una ricerca istantanea sul loro contenuto (la macchina riconosce che cosa è raffigurato in ciascuna foto), per sfidare gli umani (vincendo, il più delle volte) in giochi complessi come Go.
Le possibili applicazioni sono infinite e i nuovi chip TPU presentati da Google saranno in grado di svolgere le elaborazioni in maniera ancora più veloce ed efficace.


Anche perché ciascuna delle attività citate richiede una potenza di calcolo enorme, sia per ciò che riguarda la fase di addestramento del modello di machine learning, sia per attivare elaborazioni basate su tali modelli una volta conclusa la fase di training (si parla di inferenza).

La seconda generazione del chip TPU di Google è contraddistinta da una potenza computazionale pari a 45 TeraFLOPS.
Ogni scheda installata lato server include quattro TPU per l’equivalente di una potenza totale di 180 TeraFLOPS.
Non solo. Le schede vengono installate nei centri di elaborazione dati di Google nel numero di 16 per singolo rack (2.880 TeraFLOPS).

Tutta questa potenza sarà messa al servizio degli utenti del Google Compute Engine che potranno sfruttare contemporaneamente fino a un massimo di 4 rack (qualcosa come 11.520 TeraFLOPS).


NVidia ha recentemente tolto il velo da Tesla V100, chip grafico che da solo è accreditato di una potenza di calcolo pari a 180 TeraFLOPS e che ha dimensioni inferiori rispetto alla soluzione di Google: NVidia presenta Tesla V100, prima scheda Volta. Si punta sull’intelligenza artificiale.
È quasi scontato, però, che l’approccio di Google sia meno costoso e soprattutto immediatamente utilizzabile grazie a TensorFLOW, un ambiente di sviluppo opensource distribuito attraverso GitHub.

Ti consigliamo anche

Link copiato negli appunti