Un radar nello smartphone: perché Motion Sense non è un semplice esercizio di stile

I tecnici di Google spiegano perché Motion Sense e soprattutto Project Soli hanno un enorme potenziale.
Un radar nello smartphone: perché Motion Sense non è un semplice esercizio di stile

Google ha lanciato ieri i suoi nuovi smartphone Pixel 4 (vedere Google presenta Pixel 4, Pixel 4 XL, Nest Wifi Router, Nest Wifi Point e Nest Mini). Una delle novità più interessanti consiste nell’aggiunta del radar Motion Sense, capace di rilevare i gesti dell’utente senza che questi tocchi neppure il telefono.

Motion Sense è stato fatto derivate da Project Soli (Project Soli permette di gestire i dispositivi usando i gesti: via libera negli USA), un meccanismo apparso potenzialmente molto promettente fin dalla presentazione in quanto, in ottica futura, consentirà di abilitare nuove interfacce uomo-macchina.

Ovviamente Motion Sense è “un assaggio” ma non per questo – tiene a precisare Google – l’inserimento del radar in uno smartphone commerciale può essere derubricato a un semplice esercizio di stile.

Innanzi tutto i tecnici parlano di tre “pilastri” fondamentali: presenza, utilizzo e gesture. Motion Sense, innanzi tutto, è in grado di verificare se l’utente si trova nei paraggi; provvede a sbloccare lo smartphone non appena il possessore del dispositivo lo afferra e a disattivare suonerie e allarmi quando in funzione; riesce a interpretare per il momento un paio di gesti utili per rigettare una chiamata in arrivo o per passare alla riproduzione della traccia successiva.

Alcune di queste funzioni si possono abilitare usando una fotocamera (ad esempio, quando si afferra un iPhone l’accelerometro rileva il movimento e attiva FaceID per il riconoscimento facciale e l’eventuale sblocco) ma secondo Ivan Poupyrev, direttore del team ATAP di Google che ha lavorato su Project Soli, vi sono diversi motivi per preferire un radar.
Quest’ultimo, infatti, è contraddistinto da consumi energetici molto inferiori rispetto a quelli di una fotocamera. Un radar, inoltre, non è una fotocamera in grado di identificare personalmente l’utente ma permette di giungere comunque al medesimo obiettivo. Inoltre, il meccanismo non richiede che il telefono sia utilizzato frontalmente perché il sistema lavora in tutte le direzioni.

Google ha deciso per il momento di limitare il “vocabolario dei gesti” che Motion Sense riesce a comprendere ma come spiega Poupyrev i futuri sviluppi sono praticamente infiniti spiegando che Project Soli è capace di riconoscere qualsiasi cosa: da una farfalla che vola a una persona posta a sette metri di distanza dietro una parete.

Per il momento, quindi, Motion Sense è stato configurato per riconoscere bene lo swiping indipendentemente dalla particolare modalità usata per muovere le mani da ogni singolo utente. In futuro la sfida sarà estendere il modello usato da Motion Sense e integrare la tecnologia con nuove soluzioni basate sulla realtà aumentata.

Ti consigliamo anche

Link copiato negli appunti