La complejidad de mover un dedo

Ciencia y más

Ars Electronica / Robert Bauernhansl / Flickr, CC BY-NC-ND.

Hace unos días que supimos del primer implante en cerebro humano por la empresa Neuralink, y nuevamente se ha agitado el avispero. Las noticias sobre los implantes cerebrales parece que vienen de un solo lado. Sin embargo, nada más contrario a la realidad. Es oportuno repasar dónde estamos y cuál ha sido el camino que han seguido las neurotecnologías.

El estudio del cerebro es una de las grandes fronteras del conocimiento. Todo lo que somos y hacemos viene determinado por la actividad cerebral. Entender cómo representamos el mundo, cómo sentimos y por qué actuamos forma parte de esa gran pregunta vital.

Las neurociencias llevan décadas intentando descubrir los misterios de nuestro órgano rector. Usando tradicionalmente animales, hemos avanzando en comprender el código cerebral, esa compleja secuencia de comandos eléctricos que determinan una acción. Este código es de tal complejidad que incluso la más sencilla de las tareas es difícil de entender.

Descifrando la actividad cerebral

Cuando levantamos un dedo, una red interconectada de neuronas se activa cientos de milisegundos antes en la corteza motora suplementaria, comunicándose rápidamente con otras en la corteza prefrontal. Estas señales preparatorias activan, a su vez, neuronas en los ganglios de la base, proporcionando información sobre la intensidad del movimiento, y en el cerebelo, donde integran información sensorial y calibran el posible error. Toda esta actividad confluye en las motoneuronas principales, que envían sus señales de dirección y fuerza a los terminales del dedo índice.

En aquellos casos en los que el cuerpo ha quedado desconectado del cerebro, como en la lesión medular o en la esclerosis lateral amiotrófica o ELA, entender estos comandos neuronales puede permitir mover brazos robóticos o un cursor en la pantalla de un dispositivo. Esto es precisamente lo que intentan resolver los implantes cerebrales.

La primera vez que se consiguió decodificar la actividad neuronal asociada al movimiento fue en los años 60, de manos del neurocientífico Eberhard Fetz de la Universidad de Washington. Registrando la actividad de unas pocas neuronas de la corteza motora de un mono, fue capaz de informar la posición del cursor en una pantalla.

En un artículo publicado en Science, Fetz demostró que los monos pueden incluso aprender a modular la actividad de sus motoneuronas de manera voluntaria. Es decir, no solo podemos usar el código neuronal para ejecutar acciones externas al cuerpo, sino que el propio cerebro puede aprender a hacerlo habilidosamente si lo conectamos de manera eficiente con estos dispositivos.

Interfaces cerebro-máquina

La interfaz entre el cerebro y la máquina comprende una serie de componentes destinados a leer, procesar e interpretar la actividad neuronal. Para leer esta actividad, necesitamos electrodos con capacidad de resolver los disparos de neuronas individuales del orden de unos pocos microvoltios. Para procesarla, necesitamos filtrar y limpiar la señal. Para interpretarla, usamos algoritmos de inteligencia artificial (IA) que son capaces de aprender de los datos.

La señal decodificada se traduce en comandos para controlar los dispositivos externos. Para que el cerebro aprenda, es necesaria una señal de retorno (o feedback) visual, táctil o auditiva, que le permita calibrar los errores.

Uno de los primeros éxitos de interfaz cerebro-máquina humana fue el desarrollado por el equipo de John Donoghue en Brown University, que dio lugar a la tecnología BrainGate, publicado en Nature en 2006. Utilizando matrices de electrodos en la corteza motora, se consiguió que Mark Nagle, la primera persona parapléjica en llevar este implante cerebral, pudiera controlar el cursor de un ordenador. Aunque estos primeros prototipos solo permitían movimientos simples, iniciaron el cambio de paradigma.

Imaginemos ahora que queramos entender los comandos motores que subyacen a la acción de escribir. La complejidad puede parecer apabullante. No se trata solo de mover un dedo, sino de reproducir la destreza de la mano para dibujar letras una tras otra.

El año pasado, usando la misma tecnología BrainGate acoplada a nuevos algoritmos de IA y ciencia de datos, se demostró que es posible leer directamente la intencionalidad de la escritura. Patt Bennet, una mujer de 67 años con esclerosis, fue capaz de escribir mientras pensaba en ello. Se estima que actualmente hay unas pocas decenas de pacientes con implantes similares participando en ensayos clínicos reglados y regulados en todo el mundo.

Mucho más que un dedo

Como ilustran los ejemplos mencionados, la carrera de las neurotecnologías comenzó hace años a partir de las neurociencias. Sin ciencia básica, es difícil que pueda haber ciencia aplicada. Empresas como Blackrock Neurotech fueron pioneras en apostar por las interfaces para ayudar a restablecer la función motora en pacientes con lesiones medulares o ELA.

Desde entonces, el mercado de las neurotecnologías está creciendo a un ritmo acelerado y se estima que para 2030 pueda llegar a mover del orden de los 30 mil millones de dólares según un estudio. Parte del avance está en el procesado e interpretación de las señales con IA, pero también en el diseño de nuevos sistemas de registros menos invasivos.

Recientemente, científicos de la Universidad de California han usado mantas de electrodos sobre la región cortical responsable de los movimientos orofaciales para decodificar la intención del habla en una mujer de 47 años paralizada. Aquí, la señal no consistía en los disparos aislados de neuronas individuales, sino en ritmos electroencefalográficos, o EEG, que resultan de su activación coordinada. La señal decodificada fue proyectada en un avatar mediante el que la paciente pudo comunicar una serie de oraciones simples a partir de un set de 1024 palabras. Este ejemplo, publicado en Nature en 2023, ilustra el potencial y las limitaciones del reto.

En los próximos años, llegaremos cada vez más lejos en nuestra capacidad de decodificar la actividad cerebral no solo a base de aislar neuronas, sino también de entender las oscilaciones del campo eléctrico o incluso otras señales fisiológicas como los movimientos faciales o de la pupila. Empresas como la spinoff española INBRAIN han desarrollado electrodos de grafeno que permiten registrar los ritmos más lentos del EEG, mientras que la americana Synchron está testando un stent para capturar la actividad cerebral desde las arterias.

Otras aplicaciones de las neurotecnologías están en la monitorización de crisis epilépticas, en el tratamiento de la enfermedad de Parkinson o en el reciente éxito de las interfaces cerebro-médula para permitir nuevamente andar a parapléjicos, como han publicado científicos de la Escuela Politécnica Federal de Lausana también en Nature.

En ámbitos menos invasivos, el desarrollo de aplicaciones no clínicas en el campo del control externo de dispositivos permite acercarse a otro tipo de nichos de innovación como las tecnologías de manos libres, el desarrollo de videojuegos o el ámbito de la educación.

Estos éxitos demuestran el potencial innovador de las neurotecnologías, destacado en informes recientes como el publicado por la Oficina de Ciencia y Tecnología del Congreso de los Diputados de España. El trabajo de pacientes, científicos, médicos, tecnólogos y empresas es fundamental para avanzar el reto formidable de entender el cerebro y curar algunas de sus enfermedades.

Si algo podemos agradecer a Neuralink es el interés creciente de la sociedad por entender estos avances. Con ello viene la responsabilidad de informar sin estridencias, dando voz a la ciencia básica y sus múltiples actores.The Conversation

Sobre la autora

Liset Menéndez de la Prida, Directora del Laboratorio de Circuitos Neuronales, Instituto Cajal – CSIC

Este artículo fue publicado originalmente en The Conversation. Ir al artículo original.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *.

Este sitio está protegido por reCaptcha y se aplican la Política de privacidad y los Términos de servicio de Google