Tercer Milenio

En colaboración con ITA

I3A. Un brazo robótico controlado por el pensamiento

Los interfaces cerebro-ordenador son sistemas que permiten traducir en tiempo real la actividad eléctrica cerebral en órdenes para controlar dispositivos. A día de hoy, no existen prótesis capaces de realizar tareas de manipulación de forma funcional. El I3A trabaja para conseguir la primera.

Varios ingenieros prueban el prototipo de brazo controlado por el pensamiento
i3a
CARLOS MUñOZ

A VOLUNTAD

Mi mano se mueve porque quiere mi cerebro. Él es quien toma la decisión y mis células nerviosas trasladan la orden a la obediente mano. Cerebro y mano se hablan con un lenguaje bioeléctrico. Si nuestro cerebro controla el movimiento de nuestras manos, ¿podría desarrollarse una prótesis de brazo robótico que fuera controlada únicamente por la actividad cerebral de su dueño?


En ello están los investigadores del proyecto nacional Cognetics, liderado por Javier Mínguez y Luis Montesano, del Instituto de Investigación en Ingeniería de Aragón (I3A). La parte del proyecto que corresponde a la Universidad de Zaragoza «se centra en el análisis del movimiento humano y su relación con la actividad cerebral», explica Mínguez. «El objetivo es –añade– desarrollar un sistema de procesamiento de señal capaz de obtener, de la actividad cerebral relacionada con el movimiento, características o patrones útiles para controlar el brazo robótico». Algo así como redactar el diccionario ‘actividad cerebral-movimiento’ para que la persona y su prótesis se entiendan con total naturalidad.


Una vez generada la tecnología de interfaz cerebro-computador para decodificar esta actividad y controlar de forma natural el brazo robótico, se estará en condiciones de lograr «un prototipo de prótesis que pueda, en un futuro, ser utilizada por pacientes con grandes deficiencias neuromusculares, como la esclerosis lateral amiotrófica o el infarto cerebral», pues los interfaces cerebro-ordenador no hacen uso de actividad muscular.


Este proyecto avanza en varios frentes. No solo hay que modelar el movimiento de los miembros superiores y relacionarlo con la actividad cerebral, o conseguir obtener directamente de la señal de electroencefalograma (EEG) las posiciones del espacio hacia donde las personas desean mover sus brazos. Mejorar la percepción del control del movimiento del brazo artificial es fundamental para lograr la simbiosis hombre-máquina. Por eso, en colaboración con la empresa Bit&Brain Technologies, se está desarrollando un sistema que obtiene del EEG los tres estados de movimiento de una extremidad: el reposo, la preparación y la ejecución del mismo. Incluso se intenta decodificar, de la actividad cerebral, el estado que indica que la persona se da cuenta de que el brazo robot está ejecutando una trayectoria no deseada. Finalmente, se persigue que el brazo robótico también envíe ‘feedbacks’, de modo que el usuario lo perciba y aprenda a controlarlo de forma adecuada.


SIN INVADIR

Otras investigaciones utilizan técnicas invasivas para recoger la actividad cerebral y han sido probadas en animales. Cuestiones éticas han impulsado la investigación de métodos como el EEG, que no requieren intervención quirúrgica. Es el caso de la mano protésica desarrollada en la Universidad de Graz (Austria) y que tan solo realiza dos movimientos: abrir y cerrar. A día de hoy no existen sistemas de control de prótesis capaces de realizar tareas de manipulación de forma funcional como el que ocupa a los investigadores del I3A.


PRIMER PROTOTIPO VIRTUAL, ANTES DE SALIR AL MUNDO REAL

Dos tecnologías buscan la mejor manera de integrarse en pos de la eficacia: la tecnología de interfaz cerebro-ordenador y la robótica. Para avanzar en este camino, en paralelo a las investigaciones para desarrollar la prótesis de brazo robótico, se ha creado un primer prototipo de un sistema virtual «que demuestra que somos capaces de mover el brazo hasta las posiciones del espacio deseadas por el usuario», explica Javier Mínguez. La interfaz cerebro-computador empleada en este proyecto está basada en la decodificación de las mismas señales eléctricas (potenciales evocados) que se utilizaron en proyectos previos para controlar sillas de ruedas o mover robots a distancia. Estas señales del cerebro son provocadas al observar un vídeo sobre el que se muestra el entorno del usuario y el brazo junto con realidad aumentada. Los electrodos de un gorrito recogen las señales, que se reflejan en el electroencefalograma. Por medio de herramientas de procesamiento de señal y de reconocimiento de patrones estadísticos, estos potenciales son identificados. Así, el usuario puede decidir, solo con pensarlo, a qué punto del espacio desea mover –de momento en la pantalla– el brazo robótico. Actualmente, sobre usuarios sanos, brazo y persona, persona y brazo, tardan unos 10 minutos en adaptarse mutuamente. Ya se ha diseñado un prototipo funcional que está en proceso de mejora para incluir tareas de alto nivel más adaptadas a las necesidades de la vida real, como coger un vaso y llevárselo a la boca.