banner

Noticias

May 17, 2023

Mente

Las víctimas del síndrome de enclaustramiento pronto podrían "hablar" de nuevo.

En la novela clásica de Alexandre Dumas, El conde de Montecristo, un personaje llamado Monsieur Noirtier de Villefort sufre un terrible derrame cerebral que lo deja paralizado. Aunque permanece despierto y consciente, ya no puede moverse ni hablar, depende de su nieta Valentine para recitar el alfabeto y hojear un diccionario para encontrar las letras y palabras que necesita.

Con esta rudimentaria forma de comunicación, el decidido anciano logra salvar a Valentine de ser envenenada por su madrastra y frustrar los intentos de su hijo de casarla en contra de su voluntad.

La representación de Dumas de esta condición catastrófica, donde, como él dice, "el alma está atrapada en un cuerpo que ya no obedece sus órdenes", es una de las primeras descripciones del síndrome de encierro. Esta forma de parálisis profunda ocurre cuando se daña el tronco encefálico, generalmente debido a un accidente cerebrovascular, pero también como resultado de tumores, lesiones cerebrales traumáticas, mordeduras de serpientes, abuso de sustancias, infecciones o enfermedades neurodegenerativas como la esclerosis lateral amiotrófica (ELA).

Se cree que la condición es rara, aunque es difícil decir qué tan rara es. Muchos pacientes encerrados pueden comunicarse a través de movimientos oculares decididos y parpadeo, pero otros pueden quedarse completamente inmóviles, perdiendo su capacidad incluso para mover los globos oculares o los párpados, haciendo que el comando "parpadee dos veces si me entiende" sea discutible. Como resultado, los pacientes pueden pasar un promedio de 79 días aprisionados en un cuerpo inmóvil, conscientes pero incapaces de comunicarse, antes de recibir un diagnóstico adecuado.

El advenimiento de las interfaces cerebro-máquina ha fomentado la esperanza de restaurar la comunicación de las personas en este estado de bloqueo, permitiéndoles reconectarse con el mundo exterior. Estas tecnologías generalmente usan un dispositivo implantado para registrar las ondas cerebrales asociadas con el habla y luego usan algoritmos informáticos para traducir los mensajes previstos. Los avances más emocionantes no requieren parpadeo, seguimiento ocular o intentos de vocalización, sino que capturan y transmiten las letras o palabras que una persona dice en silencio en su cabeza.

"Siento que esta tecnología realmente tiene el potencial de ayudar a las personas que más han perdido, personas que están realmente encerradas y ya no pueden comunicarse", dice Sarah Wandelt, estudiante de posgrado en computación y sistemas neuronales en Caltech en Pasadena. .

Estudios recientes de Wandelt y otros han proporcionado la primera evidencia de que las interfaces cerebro-máquina pueden decodificar el habla interna. Estos enfoques, si bien son prometedores, a menudo son invasivos, laboriosos y costosos, y los expertos están de acuerdo en que requerirán un desarrollo considerablemente mayor antes de que puedan dar voz a los pacientes encerrados.

Una foto de 2019 del paciente parapléjico Sarshar Monoucheher utilizando la tecnología BCI desarrollada en la Universidad Tecnológica de Lausana.

El primer paso para construir una interfaz cerebro-máquina es decidir qué parte del cerebro tocar. Cuando Dumas era joven, muchos creían que los contornos del cráneo de una persona proporcionaban un atlas para comprender el funcionamiento interno de la mente. Gráficos coloridos de frenología, con extensiones bloqueadas para facultades humanas como la benevolencia, el apetito y el lenguaje, todavía se pueden encontrar en textos médicos anticuados y en las secciones de decoración del hogar de los grandes almacenes.

"Por supuesto, ahora sabemos que eso es una tontería", dice David Bjånes, neurocientífico e investigador postdoctoral en Caltech. De hecho, ahora está claro que nuestras facultades y funciones surgen de una red de interacciones entre varias áreas del cerebro, y cada área actúa como un nodo en la red neuronal. Esta complejidad presenta tanto un desafío como una oportunidad: dado que aún no se ha encontrado una región del cerebro que sea responsable del lenguaje interno, varias regiones diferentes podrían ser objetivos viables.

Por ejemplo, Wandelt, Bjånes y sus colegas encontraron que una parte del lóbulo parietal llamada giro supramarginal (SMG), que generalmente se asocia con agarrar objetos, también se activa fuertemente durante el habla.

Hicieron el sorprendente descubrimiento mientras observaban a un participante del estudio tetrapléjico al que se le había implantado una matriz de microelectrodos, un dispositivo más pequeño que la cabeza de un alfiler cubierto con montones de púas de metal a escala reducida, en su SMG. La matriz puede registrar la activación de neuronas individuales y transmitir los datos a través de una maraña de cables a una computadora para procesarlos.

Bjånes compara la configuración de su interfaz cerebro-máquina con un partido de fútbol. Imagina que tu cerebro está en el estadio de fútbol y cada una de las neuronas es una persona en ese estadio. Los electrodos son los micrófonos que bajas al estadio para escuchar.

"Esperamos que los coloquemos cerca del entrenador, o tal vez de un locutor, o cerca de alguna persona en la audiencia que realmente sepa lo que está pasando", explica. "Y luego estamos tratando de entender lo que está sucediendo en el campo. Cuando escuchamos un rugido de la multitud, ¿es eso un touchdown? ¿Fue una jugada de pase? ¿Fue el mariscal de campo capturado? Estamos tratando de entender las reglas del juego, y cuanta más información podamos obtener, mejor será nuestro dispositivo".

En el cerebro, los dispositivos implantados se ubican en el espacio extracelular entre las neuronas, donde monitorean las señales electroquímicas que se mueven a través de las sinapsis cada vez que una neurona se activa. Si el implante capta las neuronas relevantes, las señales que registran los electrodos parecen archivos de audio, reflejando un patrón diferente de picos y valles para diferentes acciones o intenciones.

El equipo de Caltech entrenó su interfaz cerebro-máquina para reconocer los patrones cerebrales producidos cuando un participante del estudio tetrapléjico "hablaba" internamente seis palabras (campo de batalla, vaquero, pitón, cuchara, natación, teléfono) y dos pseudopalabras (nifzig, bindip). Descubrieron que después de solo 15 minutos de entrenamiento y mediante el uso de un algoritmo de decodificación relativamente simple, el dispositivo podía identificar las palabras con más del 90 por ciento de precisión.

Wandelt presentó el estudio, que aún no se ha publicado en una revista científica revisada por pares, en la conferencia de la Sociedad de Neurociencia de 2022 en San Diego. Ella cree que los hallazgos significan una importante prueba de concepto, aunque sería necesario ampliar el vocabulario antes de que un paciente encerrado pueda engañar a una madrastra malvada o conseguir un vaso de agua. "Obviamente, las palabras que elegimos no fueron las más informativas, pero si las reemplazas con sí, no, ciertas palabras que son realmente informativas, eso sería útil", dijo Wandelt en la reunión.

Otro enfoque evita la necesidad de construir un gran vocabulario mediante el diseño de una interfaz cerebro-máquina que reconoce letras en lugar de palabras. Al tratar de pronunciar las palabras que codifican para cada letra del alfabeto romano, un paciente paralizado podía deletrear cualquier palabra que se le ocurriera, encadenando esas palabras para comunicarse en oraciones completas.

"Deletrear cosas en voz alta con el habla es algo que hacemos con bastante frecuencia, como cuando estás hablando por teléfono con un representante de servicio al cliente", dice Sean Metzger, estudiante graduado en bioingeniería en la Universidad de California en San Francisco y la Universidad de California, Berkeley. Al igual que la estática en una línea telefónica, las señales cerebrales pueden ser ruidosas. El uso de palabras clave de la OTAN, como Alpha para A, Bravo para B y Charlie para C, hace que sea más fácil discernir lo que alguien está diciendo.

Metzger y sus colegas probaron esta idea en un participante que no podía moverse ni hablar como resultado de un derrame cerebral. Al participante del estudio se le implantó una serie más grande de electrodos, aproximadamente del tamaño de una tarjeta de crédito, sobre una amplia franja de su corteza motora. En lugar de escuchar a escondidas las neuronas individuales, esta matriz registra la actividad sincronizada de decenas de miles de neuronas, como escuchar una sección completa en un estadio de fútbol gimiendo o vitoreando al mismo tiempo.

Usando esta tecnología, los investigadores registraron horas de datos y los introdujeron en sofisticados algoritmos de aprendizaje automático. Pudieron decodificar el 92 por ciento de las oraciones deletreadas en silencio por el sujeto del estudio, como "Eso está bien" o "¿Qué hora es?" - en al menos uno de dos intentos. El próximo paso, dice Metzger, podría ser combinar este enfoque basado en la ortografía con un enfoque basado en palabras que desarrollaron previamente para permitir que los usuarios se comuniquen más rápido y con menos esfuerzo.

Hoy, a cerca de 40 personas en todo el mundo se les han implantado conjuntos de microelectrodos, y más están disponibles en línea. Muchos de estos voluntarios (personas paralizadas por accidentes cerebrovasculares, lesiones de la médula espinal o ELA) pasan horas conectados a computadoras ayudando a los investigadores a desarrollar nuevas interfaces cerebro-máquina para permitir que otros, algún día, recuperen las funciones que han perdido. Jun Wang, científico informático y del habla de la Universidad de Texas en Austin, dice que está entusiasmado con el progreso reciente en la creación de dispositivos para restaurar el habla, pero advierte que hay un largo camino por recorrer antes de la aplicación práctica. "En este momento, todo el campo todavía está en la etapa inicial".

Wang y otros expertos quisieran ver actualizaciones de hardware y software que hagan que los dispositivos sean menos engorrosos, más precisos y más rápidos. Por ejemplo, el dispositivo iniciado por el laboratorio de la UCSF funcionó a un ritmo de unas siete palabras por minuto, mientras que el habla natural se mueve a unas 150 palabras por minuto. E incluso si la tecnología evoluciona para imitar el habla humana, no está claro si los enfoques desarrollados en pacientes con cierta capacidad para moverse o hablar funcionarán en aquellos que están completamente encerrados. "Mi intuición es que escalaría, pero no puedo decir eso seguro", dice Metzger. "Tendríamos que verificar eso".

Otra pregunta abierta es si es posible diseñar interfaces cerebro-máquina que no requieran cirugía cerebral. Los intentos de crear enfoques no invasivos han fallado porque tales dispositivos han tratado de dar sentido a las señales que han viajado a través de capas de tejido y hueso, como tratar de seguir un partido de fútbol desde el estacionamiento.

Wang ha avanzado utilizando una técnica de imagen avanzada llamada magnetoencefalografía (MEG), que registra los campos magnéticos en el exterior del cráneo que son generados por las corrientes eléctricas en el cerebro y luego traduce esas señales en texto. En este momento, está tratando de construir un dispositivo que use MEG para reconocer los 44 fonemas, o sonidos del habla, en el idioma inglés, como ph u oo, que podría usarse para construir sílabas, luego palabras y luego oraciones.

En última instancia, el mayor desafío para restaurar el habla en pacientes encerrados puede tener más que ver con la biología que con la tecnología. La forma en que se codifica el habla, en particular el habla interna, puede variar según el individuo o la situación. Una persona podría imaginarse garabateando una palabra en una hoja de papel con el ojo de su mente; otro podría escuchar la palabra, aún no pronunciada, resonando en sus oídos; otro podría asociar una palabra con su significado, evocando un estado de ánimo particular. Debido a que diferentes ondas cerebrales podrían asociarse con diferentes palabras en diferentes personas, es posible que se deban adaptar diferentes técnicas a la naturaleza individual de cada persona.

"Creo que este enfoque múltiple de los diferentes grupos es nuestra mejor manera de cubrir todas nuestras bases", dice Bjånes, "y tener enfoques que funcionen en un montón de contextos diferentes".

Marla Broadfoot Knowable Magazine Involucrar al cerebro, pero ¿dónde? Pensamientos en letras en palabras 'Aún en la etapa inicial' Este artículo apareció originalmente en Knowable Magazine, un esfuerzo periodístico independiente de Annual Reviews. Regístrese para recibir el boletín.
COMPARTIR