8 Interfaccia utente di prossima generazione che sono (quasi) qui
Quando parliamo di interfaccia utente (UI) in informatica, ci stiamo riferendo a come un programma o sistema di computer si rappresenta per il suo utente, di solito tramite grafica, testo e suono. Abbiamo tutti familiarità con il tipico sistema operativo Windows e Apple in cui interagiamo con le icone sul desktop con i nostri cursori del mouse. In precedenza, avevamo il prompt della riga di comando basato sul testo della vecchia scuola.
Il passaggio dal testo alla grafica è stato un passo da gigante avviato dal fondatore di Apple, Steve Jobs, con il suo sistema operativo Macintosh caratteristico nel 1984. Negli ultimi anni abbiamo anche assistito a un'interfaccia utente innovativa che prevedeva l'uso del tocco (ad esempio smartphone), voce (es. Siri) e persino gesti (ad es. Microsoft Kinect). Sono, tuttavia, praticamente nelle loro fasi principali di sviluppo.
Tuttavia, ci danno un indizio su come potrebbe essere la prossima rivoluzione dell'UI. Curioso? Ecco 8 caratteristiche chiave di ciò che potrebbe essere l'interfaccia utente di prossima generazione:
1. Interfacce gestuali
Il film di fantascienza del 2002, Minority Report ha rappresentato un futuro in cui le interazioni con i sistemi informatici sono principalmente attraverso l'uso di gesti. Indossando un paio di guanti futuristici, Tom Cruise, il protagonista, viene visto eseguire vari gesti con le sue mani per manipolare immagini, video, schede tecniche sul suo computer.
Una decina di anni fa, potrebbe sembrare un po 'inverosimile avere una tale interfaccia utente in cui i movimenti spaziali vengono rilevati così perfettamente. Oggi, con l'avvento di dispositivi di rilevamento del movimento come Wii Remote nel 2006, Kinect e PlayStation Move nel 2010, le interfacce utente del futuro potrebbero essere dirette in quella direzione.
Nel riconoscimento dei gesti, l'input arriva sotto forma di mano o qualsiasi altro movimento del corpo per eseguire attività di calcolo, che fino ad oggi sono ancora in ingresso tramite dispositivo, touch screen o voce. Il aggiunta dell'asse z alla nostra UI bidimensionale esistente migliorerà indubbiamente l'esperienza di interazione uomo-computer. Immagina quante altre funzioni possono essere mappate ai nostri movimenti del corpo.
Bene, ecco un video dimostrativo di g-speak, un prototipo dell'interfaccia computer visto in Minority Report, progettato da John Underkoffler che era in realtà il consulente scientifico del film. Guarda come naviga attraverso migliaia di foto in un aereo 3D attraverso i suoi gesti delle mani e collabora con i compagni "gesticolatori" delle attività di squadra. Eccitato? Underkoffler ritiene che tale interfaccia utente sarà commercialmente disponibile entro i prossimi cinque anni.
2. Interfaccia cervello-computer
Il nostro cervello genera tutti i tipi di segnali elettrici con i nostri pensieri, tant'è che ogni pensiero specifico ha la sua propria onda cerebrale modello. Questi segnali elettrici unici possono essere mappati per eseguire comandi specifici in modo che pensare il pensiero possa effettivamente eseguire il comando set.
In un EPOC neuroheadset creato da Tan Le, co-fondatore e presidente di Emotiv Lifescience, gli utenti devono donare auricolare futuristico che rileva le loro onde cerebrali generate dai loro pensieri.
Come si può vedere da questo video dimostrativo, il comando eseguito dal pensiero è piuttosto primitivo (cioè tirando il cubo verso l'utente) e tuttavia il rilevamento sembra affrontare alcune difficoltà. Sembra che questa interfaccia utente potrebbe richiedere del tempo per essere adeguatamente sviluppata.
In ogni caso, immagina un futuro (lontano) dove si possa gestire i sistemi informatici con pensieri da soli. Dal concetto di una "casa intelligente" in cui è possibile accendere o spegnere le luci senza dover uscire dal letto al mattino, all'idea di immergersi in un'esperienza di gioco definitiva che risponda al proprio stato d'animo (tramite onde cerebrali), il potenziale di un'interfaccia utente così eccezionale è praticamente illimitato.
3. Display OLED flessibile
Se i touchscreen sugli smartphone sono rigidi e non sono ancora sufficientemente reattivi ai tuoi comandi, probabilmente potresti essere il primo a provare i display OLED (diodi organici emettitori di luce) flessibili. L'OLED è un semiconduttore organico che può ancora visualizzare la luce anche quando è arrotolato o allungato. Attaccalo su un supporto in plastica pieghevole e hai uno schermo per smartphone nuovo di zecca e meno rigido.
Inoltre, questi nuovi schermi possono essere ruotati, piegati o piegati per interagire con il sistema di elaborazione all'interno. Piegare il telefono per ingrandire e rimpicciolire, ruotare un angolo per aumentare il volume, ruotare l'altro angolo per abbassarlo, ruotare entrambi i lati per scorrere le foto e altro.
Tale flessibile interfaccia utente ci consente di interagire naturalmente con lo smartphone anche quando le nostre mani sono troppo preoccupate per usare il touchscreen. Questa potrebbe essere la risposta alla sensibilità (o mancanza di) degli schermi degli smartphone verso le dita guantate o quando le dita sono troppo grandi per raggiungere i pulsanti giusti. Con questa interfaccia utente, tutto ciò che devi fare è spremere il telefono con il palmo della mano per rispondere a una chiamata.
4. Realtà aumentata (AR)
Stiamo già sperimentando AR su alcune delle nostre app per smartphone come Wikitude, ma è praticamente nelle sue fasi elementari di sviluppo. AR sta ottenendo il maggiore impulso di consapevolezza attraverso l'imminente Project Glass di Google, un paio di occhiali da indossare che permette di farlo vedere le estensioni virtuali della realtà con cui puoi interagire. Ecco una fantastica dimostrazione di cosa aspettarsi.
AR può essere su qualsiasi cosa tranne che sugli occhiali, purché il dispositivo sia in grado di farlo interagire con un ambiente reale in tempo reale. Immagina un pezzo di dispositivo trasparente che puoi tenere su oggetti, edifici e dintorni per darti informazioni utili. Ad esempio, quando ti imbatti in un cartello straniero, puoi guardare attraverso il dispositivo di vetro per vederli tradotti per la tua facile lettura.
AR può anche utilizzare il tuo ambiente naturale per creare interfacce utente mobili in cui puoi interagire proiettando schermi su muri e persino le tue mani.
Scopri come è fatto con SixthSense, un prototipo di interfaccia gestuale indossabile sviluppata dal MIT che utilizza AR.
5. Voice User Interface (VUI)
Dalla presentazione del video "Put That There" di Chris Schmandt nel 1979, il riconoscimento vocale non ha ancora incontrato un tipo di successo rivoluzionario. L'hype più recente su VUI deve essere Siri, un'applicazione di assistente personale incorporata in iOS di Apple. Utilizza un'interfaccia utente in linguaggio naturale per la sua funzione di riconoscimento vocale per eseguire attività esclusivamente su dispositivi Apple.
Tuttavia, lo vedi anche come atto di supporto in altre tecnologie di interfaccia utente come Google Glass. Il vetro funziona fondamentalmente come uno smartphone, solo che non devi reggerlo e interagire con esso con le dita. Invece ti si aggrappa come un occhiale e riceve i tuoi comandi tramite il comando vocale.
L'unica cosa che manca ora in VUI è il affidabilità nel riconoscere ciò che dici. Perfetto e sarà incorporato nelle interfacce utente del futuro. Alla velocità con cui le capacità degli smartphone si stanno espandendo e sviluppando ora, è solo una questione di tempo prima che VUI diventi il protagonista forma primaria di interazione uomo-computer per qualsiasi sistema informatico.
6. Interfaccia utente tangibile (TUI)
Immagina di avere un sistema informatico fonde l'ambiente fisico con il regno digitale per consentire il riconoscimento di oggetti del mondo reale. In Microsoft Pixelsense (precedentemente nota come Surface), la superficie di calcolo interattiva è in grado di riconoscere e identificare gli oggetti posizionati sullo schermo.
In Microsoft Surface 1.0, la luce degli oggetti si riflette su più telecamere a infrarossi. Questo consente al sistema per catturare e reagire agli oggetti posizionati sullo schermo.
In una versione avanzata della tecnologia (Samsung SUR40 con Microsoft PixelSense), lo schermo include sensori, invece di telecamere per rilevare ciò che tocca lo schermo. Su questa superficie, è possibile creare dipinti digitali con pennelli basati sull'effetto del pennello reale.
Anche il sistema è programmato per riconoscere dimensioni e forme e per interagire con tag integrati per esempio. un biglietto da visita con tag posizionato sullo schermo mostrerà le informazioni della carta. Gli smartphone posizionati sulle superfici potrebbero attivare il sistema per visualizzare le immagini nella galleria del telefono sullo schermo senza interruzioni.
7. Computer indossabile
Come suggerisce il nome, i computer indossabili sono dispositivi elettronici che puoi indossare su di te come un accessorio o un abbigliamento. Può essere un paio di guanti, occhiali, un orologio o anche un abito. La caratteristica fondamentale dell'interfaccia utente indossabile è che dovrebbe tieni le mani libere e non ostacolerà le tue attività quotidiane. In altre parole, servirà come a attività secondaria per te, come e quando desideri accedervi.
Pensa a un orologio che può funzionare come uno smartphone. La Sony ha già rilasciato quest'anno uno SmartWatch con tecnologia Android che può essere associato al tuo telefono Android tramite Bluetooth. Può fornire notifiche di nuove e-mail e tweet. Come con tutti gli smartphone, è possibile scaricare app compatibili in Sony SmartWatch per una facile accessibilità.
Aspettatevi un'interfaccia utente più indossabile nel prossimo futuro, dal momento che microchip con funzionalità intelligenti crescono nano-più piccoli e si adattano all'usura quotidiana.
8. Sensor Network User Interface (SNUI)
Ecco un esempio di interfaccia utente fluida in cui sono presenti più piastrelle compatte composte da schermi LCD a colori, accelerometri integrati e ricetrasmittenti a infrarossi IrDA in grado di interagire l'uno con l'altro quando posti in prossimità. Facciamo in modo semplice. È come le tessere di Scrabble che hanno degli schermi che cambieranno per riflettere i dati una accanto all'altra.
Come vedrai in questo video dimostrativo di Siftables, gli utenti possono interagire fisicamente con le tessere inclinando, agitando, sollevando e urtando con altre tessere simili. Queste tessere possono essere altamente interattive strumento di apprendimento per i bambini piccoli che possono ricevere reazioni immediate alle loro azioni.
Anche SNUI è ottimo semplici giochi di puzzle in cui il gameplay include spostare e ruotare le tessere vincere. Poi c'è anche la capacità di ordina fisicamente le immagini raggruppando queste tessere insieme secondo le tue preferenze. È una TUI più permeabile alla folla; invece di uno schermo è composto da diversi schermi più piccoli che interagiscono tra loro.
La maggior parte delle interfacce utente altamente anticipate?
Poiché queste interfacce utente diventano più intuitive e naturali per la nuova generazione di utenti, siamo trattati con un'esperienza di elaborazione più immersiva che metterà continuamente alla prova la nostra capacità di digerire il flusso di conoscenze che devono condividere. Sarà travolgente e, a volte, eccitante ed è sicuramente qualcosa a cui guardare con impazienza nelle nuove tecnologie a venire.
Di Più!
Interessato a vedere cosa ci riserva il futuro? Dai un'occhiata ai link qui sotto.
- 5 migliori app in realtà aumentata per l'istruzione
- 5 caratteristiche chiave da aspettarsi negli smartphone futuri
- Video TED sbalorditivi da non perdere
Quale di queste fantastiche UI ti entusiasma di più? O hai altre idee per l'interfaccia utente della prossima generazione? Condividi i tuoi pensieri qui nei commenti.