Menu

Desarrollan proyecto de interfaces cerebro-computadora para personas con discapacidad motriz y de habla

Investigadoras, investigadores y estudiantes del Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE), Centro Público coordinado

por el Consejo Nacional de Humanidades, Ciencias y Tecnologías (Conahcyt), desarrollan un proyecto de interfaces cerebro-computadora

para aplicaciones que permitan a personas con discapacidad motriz y de habla controlar equipos para moverse y comunicarse con

independencia.

Este proyecto se enmarca en investigaciones y desarrollos de centros del Sistema Nacional de Centros Públicos (SNCP) de Conahcyt, que se

alinean con la invitación que hizo el presidente Andrés Manuel López Obrador a la directora general del Conahcyt, María Elena Álvarez-

Buylla Roces, a sumar capacidades para el desarrollo de prototipos, generando una auténtica ciencia aplicada al bienestar.

En este proyecto, pionero en el país, participan personas científicas y estudiantes de la Coordinación de Ciencias Computacionales y del

posgrado en Ciencias y Tecnologías Biomédicas del INAOE. Los objetivos son analizar y estudiar señales electroencefalográficas y desarrollar

una interfaz amigable que permita interpretar palabras imaginadas o acciones especificadas y convertirlas en comandos a ejecutar por una

computadora.

El investigador del INAOE y líder del proyecto, Carlos Alberto Reyes, explicó que una interfaz cerebro-computadora es una herramienta

mental para proporcionar al cerebro un canal no muscular de comunicación y control, para transmitir mensajes y comandos al mundo

exterior “sin usar, en este caso, ni sonidos ni movimientos, sólo las señales que puedes emitir o generar en tu cerebro al estar haciendo o

pensando en algún tipo de actividad o acción que quieres establecer hacia fuera”.

Agregó que el medio más práctico y económico para extraer la información que se genera en el cerebro es la electroencefalografía. “Tenemos

varios tipos de dispositivos que nos permiten ver las señales que se generan en el cerebro al estar pensando, haciendo o tratando de emitir

algún comando o establecer una acción”.

Además, abundó que se está usando “el neuroparadigma de palabras no pronunciadas, ya que el tipo de herramienta que queremos

desarrollar está dirigida a personas que no tienen movilidad ni habla, pero su cerebro está totalmente sano y alerta”.

Alberto Reyes comentó que la interfaz está dirigida a comandar equipos de apoyo y caseros, lo cual permitirá al usuario ganar independencia

de acciones, llevar un tipo de vida lo más normal posible y manejar dispositivos como una silla de ruedas o una cama hospitalaria eléctrica.

“La interfaz es diseñada de forma personalizada, de tal manera que sólo el usuario pueda tener el control de su ambiente”.

Los dispositivos son manipulados por medio de un ambiente de navegación que consiste en ventanas con los dispositivos a controlar y

subventanas con opciones que ejecutarán acciones por medio de actuadores de hardware que directamente deberán accionar y manipular.

Se trata de controlar dispositivos útiles como una silla de ruedas, una cama eléctrica, televisión, calefactor, iluminación, etc. También se

pueden hacer llamadas telefónicas con especial facilidad, llamadas de emergencia y escritura de mensajes.

En la opción de silla eléctrica, las opciones son de avance, reversa, giro-derecha, giro-izquierda, alto y la posibilidad de aumentar o disminuir

la velocidad. El control de cama eléctrica permite al usuario colocar la cama en la posición deseada o recomendada. Todo lo anterior se podrá

controlar y monitorear a través de la interfaz cerebro-computadora comandada directamente por las señales cerebrales.

“Queremos que esta herramienta sea muy práctica, que permita al usuario hacer cosas de forma rápida y sólo se necesita un vocabulario

reducido porque con las palabras que está pensando en su cerebro establece una acción. Por ejemplo, se busca que muevan el cursor para que

se desplace hacia un lado u otro.”

Con un vocabulario que usa las palabras arriba, abajo, izquierda, derecha y seleccionar, la persona usuaria podrá elegir de forma intuitiva;

por ejemplo, lo que quiere ver, y seleccionar las opciones de encendido o apagado, subir o bajar el volumen, cambiar de canal o elegir algún

canal o aplicación de entretenimiento.

El investigador del INAOE abundó que la interfaz tiene otra opción que se denomina domótica, la cual sirve para controlar el ambiente de

vivienda: encender o apagar la luz, el aire acondicionado, el ventilador, la calefacción o algún otro dispositivo que se quiera conectar.

“Hasta ahora lo hemos simulado, pero comenzamos a mover la silla eléctrica, en el concurso que hicimos en el INAOE el año pasado ya vimos

que sí se puede”.

Finalmente, el científico agregó que el proyecto está en la etapa de simulaciones, pero que ahora buscan completarlo encontrando dentro de

la señal de electroencefalograma (EEG) las palabras no pronunciadas que lleven a un comando.

“Esto no es simple, son campos desconocidos, hay que abrir camino, sobre todo en México. Ningún otro grupo en el país está desarrollando

la combinación de todo un ambiente controlado por la mente”, concluyó.

Con estas acciones, el INAOE —que forma parte del Sistema Nacional de Centros Públicos Conahcyt—, cumple lo establecido en la primera

Ley General en materia de Humanidades, Ciencias, Tecnologías e Innovación (LGHCTI), orientando capacidades, talento e infraestructura a

brindar soluciones a problemas prioritarios del país y garantizar el derecho humano a la ciencia.