Des scientifiques ont créé une application pour Google Glass, Captioning on Glass, qui affiche devant les yeux ce que dit un interlocuteur. Conçue pour les malentendants, elle pourrait servir à traduire en direct.
Parmi les applications pour Google Glass, celle-ci est dédiée aux personnes dont l’oreille est devenue paresseuse. Elle ne fonctionne pour l’instant qu’en anglais et dans une situation de conversation à deux. © Google
Des chercheurs du Georgia Institute of Technology ont développé une idée d’application ingénieuse pour les lunettes connectées de Google adaptée aux personnes ayant des problèmes d’audition : elle sous-titre simultanément les conversations. Ce projet pourrait non seulement venir en aide aux personnes malentendantes, mais aussi à celles qui essaient d’avoir une conversation dans un lieu très bruyant ou à n’importe quel téléspectateur ayant du mal à comprendre des acteurs qui marmonnent dans un film.
L’application gratuite, appelée Captioning on Glass, s’appuie sur la reconnaissance vocale incluse dans les téléphones Android, tout en éliminant l’un des gros défauts des Google Glass, à savoir la mauvaise qualité de son micro intégré aux branches de lunettes. L’outil, en effet, transforme le smartphone de l’utilisateur en récepteur sonore. Le principe a deux avantages : un meilleur microphone et le fait que celui-ci peut être placé plus près de la personne qui s’exprime.
Le locuteur (à droite) parle en utilisant le téléphone du porteur de lunettes (à gauche), lequel voit s’afficher devant ses yeux le texte prononcé. © Georgia Tech
Et pourquoi pas la traduction dans les Google Glass ?
Pour utiliser cette application (pour l’instant disponible uniquement en anglais), il suffit de dire « OK Glass, recognize this » (« OK Glass, reconnais ça ») et de tenir son smartphone près de la personne à laquelle on parle pour que la transcription des paroles apparaisse sur l’affichage de ses lunettes.
« Ce système permet de se concentrer sur les mouvements du visage et les gestes de leur interlocuteur, a confié à CNet le professeur Jim Foley, l’un des participants au projet. Si les personnes dures d’oreille comprennent l’énoncé, la conversation peut se poursuivre sans avoir à attendre le sous-titre. Cependant, si j’ai raté un mot je peux jeter un œil à la transcription, lire un ou deux mots dont j’ai besoin, et retourner à ma conversation. »
À terme, l’équipe de chercheurs aimerait aller plus loin que la simple retranscription de conversation en incorporant aussi de la traduction en simultané. En attendant, on peut télécharger cette application de sous-titrage seulement en anglais sur le site Glass Google.
Source: futura-sciences.com
Partager la publication "Les Google Glass peuvent afficher des sous-titres en temps réel"
Comments are closed