Gli innovativi smart speaker e la vasta gamma di dispositivi compatibili con i più popolari assistenti vocali hanno certamente rivoluzionato la vita di tantissimi utenti, conquistando un numero sempre più importante di consumatori in tutto il mondo.
A lungo esclusi da questo mercato sono state però alcune categorie di disabili, in particolar modo quelli con mobilità limitata o del tutto compromessa, impossibilitati ad interagire con schermi touch, o con gravi problemi di linguaggio, affetti da paralisi cerebrali ma ugualmente dotate di capacità cognitive e intellettive.
LEGGI APPROFONDIMENTO ➡ Smart speaker per i diversamente abili, gli oggetti si spostano con il pensiero
In loro soccorso arriva Google, che ancora una volta si mostra molto sensibile al tema dell’accessibilità delle sue applicazioni e dei suoi servizi. L’ultima trovata riguarda proprio una piattaforma hardware e software basata su Google Assistant e rivolta a quella tipologia di utenti per i quali l’interazione con i gli smart speaker risulta molto difficoltosa, per non dire impossibile.
Il tool di eye-tracking di Google
Si tratta di un innovativo tool sviluppato in collaborazione con Tobii Dynavox, un’azienda statunitense che da anni è operativa nel campo dell’eye-tracking, una tecnologia in questo caso sfruttata per consentire l’interazione tra i particolari utenti di cui parlavamo e la piattaforma di Google. Integrato su un tablet ad esempio, il tool recepisce i movimenti oculari sulle varie parti del display e i comandi corrispondenti, rielaborati e azionati da Google Assistant.
Tra i comandi attivabili ci sono tutti quelli permessi agli utenti comuni, dalla gestione della riproduzione di contenuti multimediali a quella degli elettrodomestici smart presenti in casa e degli applicativi che quotidianamente utilizziamo su smartphone e tablet, dalla posta elettronica alla rubrica, dall’agenda alla messaggistica.
Integrazione con le funzioni Action Blocks e Lookout
Il tool sviluppato in sinergia con Tobii Dynavox integra una serie di altre tecnologie già sperimentate da Google sui dispositivi Android, sempre restando in tema di accessibilità.
È il caso degli Action Blocks, che facilitano l’utilizzo di telefoni e tablet per le persone che hanno una disabilità intellettiva, ad esempio permettendo di aggiungere azioni comuni alla schermata Home con un nome o un’immagine. Attivando l’azione corrispondente si potrà scattare una foto, chiamare uno dei contatti in rubrica o inoltrare messaggi standard.
Più specificatamente pensato per non vedenti è invece la funzione Lookout, che utilizza la visione artificiale della fotocamera e della videocamera, nonchè i sensori disponibili sul dispositivo Android per riconoscere oggetti e testo e descriverli all’utente utilizzando la voce di Google Assistant.
LEGGI ANCHE:
– Smart Speaker, quelli con display leader del mercato
– Smart Speaker, cresce senza sosta il mercato degli assistenti vocali