« Une grande majorité des gens ne comprend pas la langue des signes. Ce qui signifie que beaucoup de conversations intéressantes n'auront jamais lieu. »
C'est de cette idée que trois étudiants d'une école de communication de Stockholm, en Suède, sont partis pour créer Google Gesture : un concept permettant de transformer le langage des signes en paroles.
Comment marche le Google Gesture ?
Le système utilise deux brassards placés sur chaque avant-bras. Ces derniers analysent les courants électriques créés par l'activité musculaire et nerveuse. Ainsi, les brassards déterminent quel geste est effectué par la main pour ensuite le traduire en mots audibles.
David Svedenström , August Östberg et Ludwig Hallstensson, les trois créateurs, ont produit un film explicatif qui a été diffusé lors des Future Lions 2014 à Cannes.
Malheureusement tout ceci est fictif. Ce n'est pour le moment qu'un concept. Cependant, il se pourrait bien que dans les années à venir, des systèmes similaires puissent se développer. En effet, l'accessibilité est un enjeu majeur de notre société. Les musées l'ont bien compris et mettent en place des systèmes très innovants pour rendre accessible leurs œuvres au plus grand nombre.
Des systèmes déjà opérationnels pour contrôler notre environnement
Le projet Google Gesture serait fantastique. On voit déjà l'utilisation que l'on pourrait en faire : applications, sites web interactifs… L'aide apportée aux personnes muettes serait énorme.
Et il existe déjà un système basé sur le même principe. Censé sortir en septembre 2014, il permettrait de contrôler ses appareils électroniques avec les gestes. Celui-ci est baptisé Myo est développé par la société Thalmic Labs.
Pour aller plus loin, pas question de contrôler à distance mais à l'inverse, d'être au plus proche. Le designer Kosuke Takahashi a créé une typographie à la fois lisible par les voyants et les malvoyants.