Ciencia

¡Revolución en la comunicación! Un implante cerebral traduce pensamientos al habla en tiempo real

2025-04-01

Autor: Isidora

Introducción

En un sorprendente avance para la neurociencia, un equipo de científicos de la Universidad de California en Berkeley y en San Francisco (Estados Unidos) ha logrado mejorar un innovador implante cerebral capaz de traducir la actividad del habla en el cerebro en voz audible, y lo hace casi en tiempo real. Este increíble desarrollo permitió que una mujer de 47 años con tetraplejía pudiera ‘hablar’ después de 18 años de silencio.

Desarrollo de la tecnología

Este trabajo aborda un desafío crítico en el desarrollo de neuroprótesis del habla, conocido como la latencia, que es el tiempo que transcurre desde que un individuo intenta hablar hasta que se escucha el sonido. Gracias a recientes avances en inteligencia artificial (IA), los investigadores han creado un método de transmisión que sintetiza las señales cerebrales en palabras comprensibles casi instantáneamente. Esta revolución tecnológica se documentó en un artículo publicado en la revista Nature Neuroscience.

Características del aparato

Gopala Anumanchipalli, co-investigador principal del estudio, afirma: “Nuestro enfoque de ‘streaming’ lleva la misma capacidad de decodificación rápida del habla que tienen dispositivos como Alexa y Siri, pero aplicados en neuroprótesis”. Los argumentos son aún más impresionantes: “Utilizando un tipo de algoritmo similar, descubrimos que podíamos descodificar datos neuronales y, por primera vez, hacer posible una transmisión de voz casi sincrónica. Esto resulta en una síntesis de habla mucho más natural y fluida.”

Impacto en la calidad de vida

Edward Chang, otro de los principales investigadores, comentó sobre el enorme potencial de esta nueva tecnología, que podría mejorar significativamente la calidad de vida de personas con parálisis severas que afectan su capacidad de hablar. “Es emocionante ver cómo los últimos avances en IA están acelerando las interfaces cerebro-computadora para un uso práctico en la vida real a un futuro no muy lejano.”

Detalles del implante

El innovador implante cerebral, ahora respaldado por un sistema de IA entrenado, fue implantado en una mujer de 47 años que había sufrido un accidente cerebrovascular que le dejó sin poder hablar o vocalizar durante casi dos décadas. Para entrenar al algoritmo, los científicos hicieron que la participante se enfocara en una indicación en la pantalla, como la frase 'hola, ¿cómo estás?' y tratara de pronunciarla en silencio.

Método de entrenamiento

Los investigadores usaron esta información para entrenar una red neuronal de aprendizaje profundo, registrando la actividad cerebral de la mujer a través de electrodos insertados en su corteza sensomotora del habla, mientras ella formaba mentalmente oraciones completas que contenían 1,024 palabras únicas.

Desempeño en tiempo real

Más tarde, utilizaron este modelo para descodificar el habla en línea en tiempo real, generando audio que imita la voz de la mujer, previamente entrenada utilizando un clip de audio de ella hablando antes de su lesión. Cheol Jun Cho, otro de los autores, explica que la neuroprótesis opera tomando muestras de datos neuronales desde la corteza motora, el área del cerebro que controla la producción del lenguaje, y luego aplica IA para descodificar esos datos en habla auditable.

Reducción de latencia

“Básicamente, interceptamos las señales donde el pensamiento se convierte en articulación. Por lo tanto, lo que estamos descodificando ocurre después de que se produce un pensamiento y se decide qué decir”, señala Cho. Anteriormente, los investigadores enfrentaron una latencia significativa en la decodificación, de aproximadamente 8 segundos para una sola frase; sin embargo, con el nuevo método, la salida audible puede generarse casi instantáneamente.

Pruebas adicionales

Esto representa un avance monumental en la tecnología de comunicación asistida. Un interesante desafío que enfrentaron fue asegurarse de que el sistema no se limitara simplemente a emparejar patrones, por lo que probaron su capacidad de sintetizar palabras que no formaban parte del vocabulario inicial de entrenamiento, utilizando 26 palabras del alfabeto fonético de la OTAN, como 'alpha' o 'bravo'.

Resultados del experimento

Los investigadores descubrieron que su modelo ahora puede realizar esta tarea con éxito, lo que demuestra que realmente ha aprendido los componentes fundamentales de la producción de sonido. Anumanchipalli concluye: “Esto abre la puerta a un futuro donde las personas discapacitadas en su capacidad de comunicarse puedan encontrar voz nuevamente. ¡Un avance emocionante que cambia vidas y acerca a la humanidad a nuevas fronteras!