Un novedoso sistema visual permite interpretar lenguas de signos

El dispositivo posibilita a las personas sordas mantener una conversación básica, pedir ayuda o preguntar sobre lugares turísticos a quienes desconocen su lenguaje
Por EROSKI Consumer 4 de junio de 2010

El Centro de Visión por Computador de la Universitat Autònoma de Barcelona (CVC-UAB) y los investigadores de la Universidad de Barcelona (UB) adscritos al CVC, Sergio Escalera, Petia Radeva y Jordi Vitrià, han desarrollado un sistema de visión por computador para interpretar lenguas de signos que se puede integrar en puntos de información públicos. Actualmente, diferencia de manera fiable más de veinte signos del lenguaje de señas español.

Más de 100.000 personas con discapacidad auditiva utilizan la lengua de signos española, formada por centenares de signos. El CVC-UAB ha seleccionado más de veinte de estos signos para desarrollar un nuevo sistema visual que los interpreta y permite a las personas con sordera realizar consultas con el uso de su lenguaje natural.

Los signos sufren alteraciones introducidas por los usuarios. Los investigadores del proyecto también las han tenido en cuenta al realizar ensayos con diferentes personas para que el sistema «aprenda» esta variabilidad. La veintena de signos que puede reconocer permite a las personas con sordera mantener una conversación básica, como solicitar ayuda para ubicarse o preguntar sobre lugares turísticos a quienes no conocen su lenguaje. «Es una manera de comunicación no artificial para ellas, y a la vez les permite comunicarse con individuos que no entienden la lengua de signos, puesto que realiza una traducción de signo a palabra en tiempo real», destacó uno de los investigadores que participan en el proyecto, Sergio Escalera.

El hardware dispone de una cámara de vídeo que graba secuencias de imágenes cuando percibe la presencia de un usuario que quiere realizar su consulta. Seguidamente, un sistema de visión por computador y aprendizaje automático detecta los movimientos del rostro, las manos y los brazos, así como su desplazamiento por la pantalla, y los incorpora a un sistema de clasificación que identifica cada movimiento con la palabra asociada al signo correspondiente.

El sistema puede adaptarse a cualquier lengua de signos, dado que la metodología empleada es general. Lo único que habría que hacer seria cambiar los signos aprendidos por los de la nueva lengua a utilizar. Es también escalable, en cuanto a cantidad de signos que puede reconocer, «aun cuando, a medida que incorpora más datos, los investigadores reconocen que aumenta también la dificultad para discriminarlos», matizó la UAB.

Sigue a Consumer en Instagram, X, Threads, Facebook, Linkedin o Youtube