Elle s’appelle LOOKOUT et devrait être dispo sur le Store en fin d’année.
Son fonctionnement repose sur l’utilisation du téléphone porté autour du cou. L’appareil photo scanne – en temps réel ! – l’environnement et renvoie des indices auditifs au mal-voyant. Tout repose sur l’intelligence artificielle qui peut décomposer les éléments et renvoyer les indices aussi rapidement.
Je suis très à l’écoute de ces besoins, puisque nous développons une app dans la santé destinée aux mal-voyants. Et je dois saluer les efforts concrets des Amazon (avec Alexa), Microsoft et de Google. La voix est – pour moi – l’interface du futur.
Petite démo de l’app, avec une artiste mal-voyante…