Universitarios crean dispositivo que traduce la lengua de señas a voz en tiempo real

El dispositivo destaca por su accesibilidad y adaptabilidad a distintos idiomas gracias a la IA

NeuroSign fue validado a través de pruebas con usuarios, análisis de usabilidad y simulaciones persona-máquina, demostrando que puede operar de forma autónoma y portátil, incluso en entornos públicos o educativos.

NeuroSign fue validado a través de pruebas con usuarios, análisis de usabilidad y simulaciones persona-máquina, demostrando que puede operar de forma autónoma y portátil, incluso en entornos públicos o educativos.

14:46 | Lima, mar. 11.

¡Innovación e inclusión! Estudiantes universitarios han desarrollado un dispositivo creado para que cualquier persona que no sepa lengua de señas pueda entender este tipo de mensajes de forma clara e inmediata.

NeuroSign es capaz de traducir la lengua de señas a voz en tiempo real, proyectándolo como un holograma dentro de una estructura piramidal de acrílico, sostienen sus creadores, Néstor Ramos y Angie Herrera, estudiantes de Ingeniería Industrial e Ingeniería Mecatrónica de la Universidad Continental, respectivamente.

“Miles de personas con discapacidad auditiva o del habla tienen muchas dificultades para comunicarse con quienes no comprenden la lengua de señas. Esto afecta su acceso a la educación, al trabajo y la participación social, generando una exclusión silenciosa que la tecnología puede y debe ayudar a derribar. Con esa misión desarrollamos NeuroSign”, sostiene Angie Herrera.

Lee también: Estudiantes peruanos avanzan a fase regional de concurso tecnológico internacional

Los estudiantes agregan que mediante el uso de visión artificial y aprendizaje automático, NeuroSign emplea MediaPipe y TensorFlow Lite para reconocer gestos captados por una cámara, interpretarlos mediante inteligencia artificial y traducirlos en mensajes audibles de fácil entendimiento. 

Según Néstor Ramos, NeuroSign surgió de una experiencia personal: “Estando en una tienda se me acercó una persona que trató de comunicarse conmigo con lengua de señas, pero yo no le entendía. Lo único que pude hacer era esperar a que llegara su amistad para entender lo que necesitaba”, señaló. 

Tiempo después, participaron en el programa FellowShip del FabLab de la Universidad Continental en donde tuvieron la oportunidad de desarrollar esta solución para responder a la limitación vivida en aquella tienda.

Lee también: Lisseth Gonzáles, la astrónoma que nació en Áncash y hoy destaca en los EE.UU.

NeuroSign fue validado a través de pruebas con usuarios, análisis de usabilidad y simulaciones persona-máquina, demostrando que puede operar de forma autónoma y portátil, incluso en entornos públicos o educativos.

El dispositivo destaca por su accesibilidad y escalabilidad, traducción automática de señas a voz, proyección holográfica en tiempo real, adaptabilidad a distintos idiomas gracias a la IA y uso sin conexión ni intermediarios.

“Su propósito es convertir la comunicación en un derecho accesible para todos, sin depender de intérpretes, aplicaciones móviles o conexión a internet”, finaliza Néstor Ramos.

Revisa más noticias sobre ciencia, tecnología e innovación en la Agencia Andina y escucha historias inspiradoras en Andina Podcast.

Más en Andina:(FIN) NDP/MFA
JRA

Publicado: 11/3/2026