Un hombre logró agarrar, mover y soltar objetos gracias a un brazo robótico conectado a un dispositivo que transmite las señales desde su cerebro a un dispositivo. El paciente en cuestión sólo debió imaginar la secuencia para que se hiciera realidad.

Se trata de un dispositivo llamado interfaz cerebro-ordenador que fue desarrollado en la Universidad de California en San Francisco, que logró una autonomía tal de no necesitar ajustes por 7 meses luego de que previamente funcionara por solo 1 o 2 días. Este interfaz cerebro-ordenador utiliza un modelo de Inteligencia Artificial (IA) para adaptarse a los pequeños cambios que ocurren en el cerebro al realizar (en este caso imaginar) un movimiento. Gracias a esa conexión el artefacto aprende a realizar la acción refinadamente.

Según Karunesh Ganguly, neurólogo del Instituto Weill de Neurociencias perteneciente a la Universidad de California, considera que "esta combinación de aprendizaje entre humanos e IA es la siguiente fase de estas interfaces cerebro-computadora, y es lo que necesitamos para lograr una función sofisticada y similar a la de la vida real".

Los detalles del dispositivo en cuestión se publicaron en la revista Cell. Se comunicó que el avance más importante para esta innovación tecnológica fue descubrir cómo cambia la actividad de las personas en sus cerebros cotidianamente, mientras un participante del estudio imagina que hace movimientos específicos día tras día. Ni bien la IA fue capaz de captar estos cambios el brazo robótico que utiliza pudo funcionar de corrido durante 7 meses.

El origen del estudio

Ganguly estudió previamente cómo la actividad cerebral de los animales representa movimientos particulares y se concentró en que esas representaciones cambiaban día a día a medida que el animal aprendía diferentes cosas. Por este estudio Ganguly sospechó que a los seres humanos les sucedía lo mismo, por lo que los interfaces cerebro-ordenador no retenían la capacidad de reconocer los patrones por más de uno o dos días.

Luego de estos avances, Ganguly y su equipo se dispusieron a trabajar con un hombre paralizado y sin capacidad de hablar ni moverse luego de haber sufrido un derrame cerebral. Al paciente se le implantaron pequeños sensores en la superficie del cerebro para captar su actividad cerebral cuando imaginaba moverse y el neurólogo le pidió que imaginara que movía diferentes partes de su cuerpo, a pesar que no podía moverlas, para ver si las representaciones variaban. Por esas imaginaciones su cerebro producía señales que el interfaz cerebro-ordenador registraba gracias a los sensores en el cerebro. Si bien las representaciones permanecían iguales, era su ubicación la que cambiaba ligeramente de un día para el otro.

Ganguly le pidió al paciente que imaginara mover diferentes partes de su cuerpo para entrenar a la IA, hasta que le pidió al hombre que intente manejar un brazo y una mano robóticas, con movimientos imprecisos como primer resultado, hasta que avanzó a probar otro brazo robótico virtual que se retroalimentaba por visualizaciones, con el que el hombre sí logró hacer lo que deseaba. Luego, nuevamente con el brazo robótico físico, el paciente internado pudo transferir sus habilidades allí para agarrar objetos, moverlos y dejarlos en otro lugar, junto a otras actividades como abrir un armario.

Con un simple ajuste realizado por el equipo de Ganguly, en el que se ajustó el brazo a las representaciones del movimiento del cerebro humano, el hombre en cuestión pudo usar el brazo robótico durante meses. Los próximos objetivos de este avance pretenden que el brazo robótico pueda moverse con la velocidad y suavidad necesaria para un contexto doméstico.

Ganguly entiende que "hemos aprendido cómo construir el sistema ahora" y asegura que "podemos hacer que funcione", sobre todo para posibilitar la capacidad de alimentarse y beber de las personas con parálisis.