Et si les assistants vocaux pouvaient lire la langue des signes ?

Un petit génie nommé Abhishek Singh met au point une webapp pour permettre à Alexa de lire la langue des signes. Une manière d’expérimenter l’accessibilité des interfaces vocales auprès de personnes malentendantes. 

L’un des principaux atouts de la voix est que son usage est naturel. Les interfaces contrôlées par cette dernière apparaissent comme beaucoup plus accessibles. On imagine que pour les personnes âgées, se débarrasser du clavier et de la souris peut rendre un sérieux service.

En revanche, des catégories de personnes sont exclues. C’est le cas des sourds et malentendants. L’entrainement du traitement automatique du langage naturel ne concerne pas les énoncés prononcés par ces utilisateurs. D’autre part, les enceintes connectées ne disposent que rarement d’écran et encore moins de caméra (même si 81% de l’usage des assistants vocaux se fait aujourd’hui sur mobile).

Bref, pour remédier à cela Abhishek Singh a semble-t-il trouvé une solution. Dans un schéma de pensée de design inclusif, il développe cette application web via le package javascript de machine learning TensorFlow.js. Le programme lis la langue des signes. Il traduit la suite de mouvements en un message texte pour le transmettre à l’assistant vocal Alexa. La réponse d’ordinaire verbale s’affiche à l’écran. Certes, toutes les frictions inhérentes au rapport à la machine ne sont pas éliminées, mais le designer réussi tout de même un joli tour de passe-passe en créant une interaction basée sur un langage.

Charles Loyer

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *