Desarrollan traductor de lenguaje de señas

La Universidad Veracruzana desarrolla un dispositivo que reconoce el lenguaje de señas a través un sensor MS-Kinect y lo traduce a texto ; podría integrarse a espacios públicos.
El propósito es crear un sistema que funcione como un traductor bidireccional que traduzca el lenguaje de señas a texto y un avatar que lo emule
El propósito es crear un sistema que funcione como un traductor bidireccional que traduzca el lenguaje de señas a texto y un avatar que lo emule (Notimex)

Ciudad de México

La Universidad Veracruzana, a través del Centro de Investigación en Inteligencia Artificial (CIIA), desarrolla un sistema de reconocimiento de imágenes para traducir señas a texto.

El doctor Homero Vladimir Ríos Figueroa, investigador del CIIA, dijo que el objetivo del proyecto es crear un sistema que ayude en la traducción del lenguaje de señas mexicano, mediante el uso de una cámara o sensor MS-Kinect.

Explicó que a través de estos dispositivos se obtienen nubes de puntos que son interpretadas por algoritmos de visión por computadora y de esta forma, las señas y gestos pueden ser traducidos a texto o voz.

De acuerdo con información del Consejo Nacional de Ciencia y Tecnología, el especialista indicó que el proyecto considera la creación de un traductor bidireccional.

TE RECOMENDAMOS: IMM dará capacitación en lenguaje de señas y braile

Por ello, la investigadora de la Facultad de Ciencias de la Universidad Nacional Autónoma de México, Ana Luisa González, trabaja en la animación de un avatar, capaz de realizar el lenguaje de señas.

El propósito, dijo Ríos Figueroa, es crear un sistema que funcione como un traductor bidireccional, con el reconocimiento de expresiones dinámicas del lenguaje de señas y la función de un avatar que emule el lenguaje de señas mexicano.

Destacó que este sistema podría integrarse en lugares públicos como bancos u hospitales para facilitar la comunicación de personas con discapacidad auditiva.

De acuerdo con el especialista, los avances registrados se ubican en la detección del alfabeto a través del dispositivo y la animación del avatar, además deben integrar más expresiones al sistema, pues el lenguaje de señas mexicano es muy amplio.

“Buscamos que el alfabeto pueda ser reconocido en condiciones ambientales y complejas, además de ampliar el vocabulario hasta que abarque todo el lenguaje y sea capaz de reconocerlo y ejecutarlo, lo cual podría tomar largo tiempo”, apuntó.

El lenguaje de señas consiste en expresiones faciales y signos articulados por las manos que permite la comunicación de las personas con discapacidad auditiva, por lo que el experto enfatizó su interés en hacer del sistema un medio de inclusión social que, en medida de lo posible, dé respuesta a las necesidades de este sector de la población.


Dash