Abbiamo provato ad accendere (e muovere) un'automobile con uno sguardo allo smartphone

La funzionalità di tracciamento dello sguardo sullo schermo può essere utilizzata per rispondere al telefono o aprire un messaggio con una occhiata. La prospettiva futuristica è quella di poter interagire con altri dispositivi muovendo gli occhi

Abbiamo provato a muovere un'automobile con uno sguardo: la prova dell'eye tracking di Honor Magic 6 Pro

È tempo di grandi sperimentazioni sui software degli smartphone. L’intelligenza artificiale ha dato nuova ispirazione al mercato. E le case produttrici ormai si sfidano a colpi di funzionalità che non mancano di note futuristiche. Ce lo stiamo un po’ immaginando il futuro: tra qualche anno i dispositivi che ci accompagnano in ogni attività quotidiana si trasformeranno in traduttori simultanei, assistenti personali che prevedono ogni nostra esigenza e anche enciclopedici consiglieri pronti a rispondere a ogni nostra domanda. Per ora, le sperimentazioni sono limitate e, a volte, piuttosto approssimative. Ma ci danno comunque un piccolo assaggio di ciò che verrà. Con questo contesto bene in mente abbiamo impugnato l’ultimo smartphone top di gamma di casa Honor, appena lanciato nel mercato europeo durante il Mobile World Congress di Barcellona, per provare ad accendere e muovere un’automobile con uno sguardo

La funzione di eye tracking

Il sistema operativo dell’Honor Magic 6 Pro si chiama MagicOS 8.0. Si basa su Android ma è stato arricchito dal colosso cinese di alcune funzionalità, tra cui l’eye tracking, ovvero il tracciamento dello sguardo. Questa tecnologia non è ancora disponibile in Europa, ma – ci conferma l’azienda – arriverà nelle prossime settimane. Verrà sfruttata più che altro per rendere più semplici e immediati alcuni passaggi, come rispondere a chiamate o visualizzare messaggi. Fissando la Magic Capsule, ovvero quel piccolo ovale nero nella parte alta dello schermo che nasconde i sensori, sarà possibile fare con un’occhiata queste operazioni che ora richiedono due o tre tap sullo schermo. In prospettiva, e con l’accordo di aziende terze, il nostro sguardo sarà utile a compiere molteplici attività sullo schermo del telefono. Guardando ancora più in là, Honor prova a immaginare come sfruttare questa interfaccia per interagire anche con altri dispositivi, come un’automobile.

La prova

La demo inizia con la configurazione dell’eye tracking, che dura pochi secondi. Sullo schermo appaiono dei piccoli cerchi bianchi, su sfondo nero, da fissare intensamente. Così che il sensore all’interno della Magic Capsule possa riconoscere i nostri occhi e come si muovono. Davanti a noi c’è un’automobile, dotata di un software in grado di dialogare con lo smartphone. A nostro comando, questo risponde con poche, semplici operazioni. L’applicazione sullo schermo è dotata di quattro grandi pulsanti: uno per accendere il motore, uno per spegnerlo, uno per far muovere l’auto in avanti e uno per ingranare la retro. La demo viene effettuata all’interno di una grande stanza, e non c’è pericolo che possiamo perdere il controllo del veicolo grazie a un sistema di sicurezza gestito da un operatore. Fissiamo il primo pulsante intensamente, in alto a sinistra. C’è una barra che pian piano si colora di blu mentre manteniamo fisso il nostro sguardo per due volte. E poi ecco che il motore si accende, a pochi metri da noi. Perché funzioni, è necessario “estremizzare” il movimento degli occhi, quasi oltre il bordo del telefono. Mentre proviamo a far muovere l’auto, fissando in basso a destra il pulsante dedicato, l’operazione non va subito a buon fine. Ma questa è una demo, e l’algoritmo è ancora in fase di allenamento. È fondamentale poi guardare un punto in modo deciso, senza muovere gli occhi, perché il sensore si renda conto di ciò che stiamo guardando e dunque dell’azione che vogliamo compiere. Dopo un paio di tentativi, ecco che l’auto si muove e percorre una decina di metri e poi – sguardo nell’angolo in basso a sinistra – torna indietro. Infine, con un’ultima occhiata, spegniamo il motore. 

Piccoli assaggi futuristici

È bene precisare che l’intenzione di questa demo non è quella di mostrare una futura funzionalità in arrivo. Non è realistico pensare che, nel giro di qualche anno, comanderemo un’automobile guardando il nostro telefono. L’idea è quella di ispirare alle possibilità che questa tecnologia può aprire. Qualche proposta meno futuristica? Immaginate di essere impegnati a cucinare, con le mani unte che non possono toccare lo schermo. Ma dobbiamo leggere il prossimo passaggio della ricetta: se potessimo scrollare il sito aperto sullo smartphone con uno sguardo tornerebbe molto utile. Oppure abbiamo le mani impegnate, stiamo sistemando la libreria di casa oppure finendo le faccende domestiche. Se qualcuno ci chiama e vogliamo rispondere, non serve altro che dare un’occhiata allo schermo. Piccoli assaggi della prossima evoluzione dei nostri sempre più fondamentali assistenti quotidiani.

27 febbraio 2024

- Leggi e commenta