tag foto tag foto tag foto tag foto

Il computer si controlla con un gesto: per Intel la fantascienza è già realtà











Mouse e tastiere andranno presto in pensione. Paul Tapp, capo della divisione Perceptual Computing del colosso americano mostra l'interfaccia utente del prossimo futuro. In cui non si toccherà nulla, nemmeno lo schermo, e le macchine si comanderanno con movimenti liberi delle mani. Sul mercato a breve, costerà meno di duecento euro. E fra dieci anni...

"SONO passati più di trent'anni da quando il computer ha cominciato a diffondersi nelle nostre case. Tutto è cambiato, tranne una cosa: per parlare con la macchina usiamo ancora mouse e tastiera. E' arrivato il momento di voltare pagina". A parlare, in un piccolo stanzino dello stand Intel al recente IFA di Berlino, è Paul Tapp. Inglese, quarant'anni, Tapp è a capo della sezione Perceptual Computing di Intel di Santa Clara, in California. Un laboratorio dove si studiano soluzioni per migliorare il nostro modo di comunicare con le macchine, renderlo più naturale e intuitivo. I primi risultati li vedremo tra qualche mese, quando una prima versione del software Intel sarà inserita nei laptop di costruttori come Lenovo o Acer. Dalla voce ai gesti, l'obiettivo è mandare in pensione l'accoppiata mouse e tastiera. "Mouse e tastiera sono sistemi funzionali, ma non sono naturali, intuitivi. Sono limitanti. Prendete un tablet, datelo a un bambino di due anni e dopo qualche minuto lui saprà senza dubbio far funzionare il suo gioco preferito. Fate lo stesso con un computer ed è molto probabile che non riuscirà nemmeno ad aprire il menu", prosegue Tapp. Questione di immediatezza. Insomma, il contatto fisico con il sistema operativo è il prossimo passo, secondo Intel, nel rapporto tra uomo e computer. "Tra dieci anni i monitor touch dei nostri PC saranno sostituiti da schermi olografici che proietteranno immagini tridimensionali davanti a noi. Potremo aprire o chiudere un programma toccandolo con la mano", spiega Tapp. Sembra la solita dichiarazione ad effetto: la fantascienza di film come Minority Report o Star Trek che diventa realtà. Ma Mr. Paul ci smentisce subito: "Volete vedere?".

Futuro a portata di mano. Tapp apre un computer della Lenovo, un notebook all'apparenza normale: monitor da 13 pollici touch, sistema operativo Windows 8, sembra sottile e leggero. Poi collega una telecamera, la Creative Senz3D: arriverà nei negozi americani a breve, a 199 dollari. E tutto cambia. Il computer riconosce tramite la fotocamera il volto di Tapp e si sblocca: "Non è più necessario inserire password, sarà il sistema operativo a capire chi lo sta usando e a regolarsi di conseguenza", spiega. Poi, usando la voce, fa partire una demo. C'è una statua a forma di serpente dalla cui bocca sgorgano monete d'oro. Una cascata con cui Tapp interagisce muovendo la mano davanti allo schermo. Raccoglie le monete, devia il flusso, le lancia lontano semplicemente agitando la mano. Viene in mente il Kinect di Microsoft, la periferica per Xbox che permette di giocare agitando il corpo davanti al televisore. "E' una tecnologia simile, ma quella Microsoft è più limitata e dedicata più che altro al gioco", interviene Tapp. "Noi ci siamo concentrati sul busto e soprattutto sulle mani. Siamo in grado di percepire chiaramente il movimento delle dita, la posizione della mano, la rotazione del polso", spiega. La Creative Senz3D è il primo prodotto ad arrivare sul mercato, ma nei prossimi mesi la tecnologia Intel sarà integrata direttamente nei computer, tramite webcam fornite di serie dai vari costruttori, come Lenovo o Acer. Non ci sarà bisogno insomma di acquistare accessori esterni: la prima versione del software Intel sarà già integrata nel sistema operativo, pronta ad essere usata. Il colosso americano non è certo l'unico a credere nel riconoscimento dei gesti come possibile futuro dell'interazione uomo macchina. Già da qualche mese, ad esempio, è disponibile nei negozi Leap di Leapmotion, una piccola scatolina da collegare via USB al computer. Permette di controllare una serie di applicazioni coi gesti della mano. "Leap è un progetto molto interessante, ma che funziona solo con applicazioni create ad hoc. Il nostro obiettivo invece è quello di lavorare per permetterci di controllare tutto il sistema operativo muovendo le dita. Ci vorrà un po' di tempo, due o tre anni, ma il riconoscimento dei gesti è senza dubbio il futuro. Insieme, ovviamente, alla voce".

Oltre Siri e Google Now. I comandi vocali sono una realtà: da Siri a Google Now, passando per lo stesso Kinect e altri, già oggi è possibile parlare a smartphone, tablet e apparecchi vari, chiedere dove sta il ristorante di sushi più vicino oppure conoscere i risultati delle partite di calcio. "A differenza dei gesti, quella del riconoscimento della voce è una tecnologia che si sta evolvendo a una velocità enorme", continua Tapp. Merito degli investimenti di grandi colossi come Apple e Google, ma anche dell'interesse dell'industria dell'auto, che da anni spende milioni di dollari nella ricerca. "Per questo vedremo un grande passo in avanti in questa tecnologia già durante il 2014". Tapp mostra due fori sul notebook Lenovo, vicino la webcam sulla parte alta dello schermo: "Non è importante che la macchina capisca il comando vocale, è importante anche che comprenda il contesto in cui date quel comando. Ora ad esempio siamo a una fiera, c'è tanto rumore. Per questo abbiamo inserito due microfoni: uno serve a capire la nostra voce, l'altro a decidere quali rumori non ascoltare", spiega. I computer  saranno capaci di dare risposte sempre più articolate e precise, instaurando un rapporto con l'utente, registrando le sue abitudini. "Oggi siamo noi a chiedere un certo tipo di ristorante, domani sarà il computer che, in base ai nostri gusti e al nostro stato emotivo e di salute, ci consiglierà un posto dove andare", continua Tapp. Si passerà insomma da un rapporto essenzialmente passivo a uno attivo, con intelligenze artificiali sempre più evolute e residenti nella nuvola, pronte ad attivarsi su tutti i device che utilizziamo, dal portatile allo smartphone. "Pensate ai chip GPS: sono anni che li usiamo nei cellulari. Fino a oggi si attivavano solo quando noi chiedevamo al computer di portarci da qualche parte. Nel futuro invece saranno sempre attivi, pronti a studiare il nostro percorso  per l'ufficio e avvisarci se, per un incidente o un altro motivo, è meglio cambiare strada o muoverci prima da casa". E la privacy? "Penso che non ci sia molto da preoccuparsi: tutte queste funzioni saranno sempre a discrezione dell'utente, che potrà in qualunque momento disattivarle", ci rassicura Tapp.

Come Star Trek. O quasi.
Voce, gesti, computer in grado di parlarci e dare consigli, schermi olografici. Sembra proprio che Star Trek le abbia indovinate tutte. Paul Tapp sorride: "Sì, ma ci sono alcune cose dei film di fantascienza che non vedremo mai. Noi cerchiamo di guardare al futuro, di immaginare come potremo dialogare con il web da qui a vent'anni. E ci sono alcune cose che, semplicemente, non possono funzionare". Ad esempio? "Stiamo lavorando sul riconoscimento dei pensieri, su sistemi in grado di trasformare gli impulsi del cervello in comandi. Anche se è possibile leggere alcuni impulsi cerebrali, sarà impossibile avere sistemi in grado di capire esattamente quello che stiamo pensando, di tramutare un pensiero in un'azione. Non accadrà mai", spiega. Quello che invece potrebbe funzionare tra qualche anno è la lettura della retina, impartire comandi semplicemente muovendo gli occhi. "In teoria già oggi è possibile, ma la tecnologia necessaria per un efficace riconoscimento della retina è molto costosa e soprattutto è difficile da miniaturizzare per inserirla in device portatili come smartphone e tablet", spiega. Non mancano tuttavia esempi interessanti in questo campo: come l'americana Tobii, un accessorio per computer che sfrutta il movimento della retina per interagire con applicazioni create ad hoc, dai videogame come StarCraft 2 a software educativi o editor di testo. "Quello che sono riusciti a fare in Tobii è impressionante, considerato anche il prezzo di circa un migliaio di dollari. Però siamo ancora lontani dall'usare gli occhi come principale sistema di input di comandi", interviene Tapp.

Insomma, occhi, mani e voce sono il futuro dell'interazione col nostro mondo digitale. Interagiremo usando il corpo, esattamente come facciamo quando ci rapportiamo con un altro essere umano. Con un certezza: presto anche il concetto di computer sarà superato, così come quello di tablet o smartphone. Altri oggetti entreranno in gioco, oggetti di uso comune come gli occhiali di Google o addirittura una camicia. Come quella a scacchi, blu e bianca, che indossa Paul Tapp: "Domani non sarà importante l'apparecchio che utilizziamo, perché potremo accedere agli stessi servizi e contenuti da qualunque dispositivo e in qualsiasi momento, senza dover accendere niente. Magari basterà toccarmi la camicia, qui sul petto, per connettermi". Già, proprio come in Star Trek.


Via repubblica.it  

Nessun commento

Powered by Blogger.