Interpretación automática del lenguaje de señas

Dentro del área correspondiente a la Interacción Hombre-Máquina, se presenta un enfoque que se relaciona con estudiar los aspectos fisiológicos, psicofísicos y psicológicos que están asociados a la interpretación de información por parte del cerebro humano. El proyecto desarrollado dentro del Grupo de Mecatrónica, consiste en utilizar información de sensores, proveniente de un guante de datos, para detectar gestos ejecutados por una persona, y a través de un sistema basado en técnicas de inteligencia artificial, como las redes neuronales artificiales, reconocer el gesto realizado en la computadora y mostrar su significado.

El proyecto consistió en el diseño de un sistema que permite el reconocimiento de gestos de un lenguaje de señas establecido, como el American Sign Language (ASL) o el Lenguaje de Señas Venezolano (LSV), realizados por un usuario, utilizando un proceso de clasificación basado en Redes Neuronales Artificiales (RNA), para que sirva de ayuda a aquellas personas con impedimentos auditivos que necesiten transmitir una información en su lenguaje natural de señas. Sin embargo, se sabe que el lenguaje de señas es muy complejo, así que se consideró como una primera aproximación a este problema el uso del abecedario en lenguaje de señas, que se gesticula todo con una sola mano.