• La innovación busca impulsar la inclusión y mejorar la comunicación de la comunidad con discapacidad auditiva

 

Redacción / CAMBIO 22

A través del uso de una base de datos compuesta por gestos que entrenaron con el algoritmo de Machine Learning, una de las ramas de la inteligencia artificial (IA), estudiantes del Politécnico Nacional, crearon un reconocedor de gestos que utiliza sensores de posición.

Con este proceso el equipo de la Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas (UPIITA) del IPN, logró traducir, a voz, palabras clave y frases de la Lengua de Señas Mexicana.

El aparato en forma de guante, mediante la integración de la IA y de tecnologías de programación y electrónica digital, entre otras, facilitará la comunicación e integración en la sociedad de personas con discapacidad auditiva.

WhatsApp Image 2025-08-31 at 11.28.51 AM (2).jpeg

El proyecto denominado Reconocedor de gestos de la lengua de señas mexicana utilizando señales mioeléctricas y sensores de posición, fue desarrollado por Valeria Ramos Vázquez y Pedro Martín Morales Flores, de Ingeniería Biónica, para obtener su título respectivo en la UPIITA.

El prototipo reconoce ciertos gestos de la Lengua de Señas Mexicana mediante dos sistemas de adquisición de datos: un guante que tiene integrados sensores de posición y dos circuitos de señales mioeléctricas (pequeñas corrientes de energía que genera nuestro organismo al realizar un movimiento y que corre a través del músculo), conectados al brazo y antebrazo de una persona.

Los politécnicos explicaron que si bien en países como Estados Unidos y China ya existen dispositivos que traducen la lengua de señas a voz, en México aún falta avanzar en ese sentido.

Con el apoyo de la organización Latido Sordo A. C., ubicada en Querétaro, y el respaldo del diccionario Manos con voz. Diccionario de Lengua de Señas Mexicana, del Gobierno de México, Valeria y Pedro, delimitaron 13 frases de uso común que desglosaron en gestos: “buenos días”; “buenas noches”; “comer”; “noche”; “cómo”; “estar”; “te ayudo”; “me ayudas”; “por favor”; “necesitar”; “mal”; “bien” y “de nada”.

poli

A partir de dicha lista, elaboraron una base de datos compuesta por gestos que entrenaron con el algoritmo de Machine Learning (Aprendizaje automático). El proyecto integra además diversas tecnologías en la Lengua de Señas Mexicana, el método de la concatenación de gestos para formar frases y el uso de señales mioeléctricas.

Cuando el gesto se realiza, las señales se filtran y se procesan, se extraen características y se comparan con la base de datos. Es en ese momento del proceso es que el sistema elige la más parecida y reproduce el audio.

La doctora Blanca Tovar Corona, de la Academia de Sistemas y de Posgrado en Tecnología Avanzada y Posgrado de Inteligencia Artificial y Ciencia de Datos en la UPIITA, señaló que “este proyecto integra los sensores de movimiento y señales de electromiografía, lo que permite detectar los movimientos de los dedos y del brazo”.

El integrante de la Academia de Biónica, también de la UPIITA, el doctor Álvaro Anzueto Ríos, indicó que este sistema tiene la capacidad de aprender a diferenciar los gestos, porque no sólo es ejecutarlo, sino también qué representa y separarlo de otros.

 

 

 

Fuente: El Sol de México

redaccion@diariocambio22.mx

GPC/MER

WhatsApp Telegram
Telegram


WhatsApp Image 2025 11 30 at 12.28.27 AM
WhatsApp Image 2025 11 30 at 12.28.27 AM