Tecnología

¡Increíble! Un implante cerebral traduce pensamientos en habla en tiempo real

2025-04-01

Autor: Santiago

Un equipo de científicos de la Universidad de California en Berkeley y San Francisco ha logrado un avance revolucionario en la neurotecnología: un implante cerebral que traduce la actividad del habla en el cerebro a voz audible casi en tiempo real. Esto significa que una mujer de 47 años con tetraplejía, quien no pudo hablar durante 18 años, ha recuperado la capacidad de comunicarse.

Este innovador avance enfrenta y resuelve el histórico problema de la latencia en las neuroprótesis del habla, que es el tiempo que pasa desde que una persona intenta hablar hasta que se escucha el sonido. ¡Una verdadera hazaña de la ciencia moderna!

Mediante el uso de inteligencia artificial (IA), el equipo de investigación ha desarrollado un método que transforma las señales neuronales en habla comprensible. Su descripción fue publicada en la prestigiosa revista Nature Neuroscience, destacando la relevancia del uso de algoritmos que antes estaban reservados para asistentes virtuales como Alexa y Siri.

"Utilizando un tipo de algoritmo similar, hemos hecho posible la transmisión de voz casi sincrónica, lo que resulta en una síntesis del habla más natural y fluida", explica Gopala Anumanchipalli, co-investigador principal del estudio. Esto promete cambiar la vida de miles de personas que, por diferentes razones, han perdido la capacidad de hablar.

Edward Chang, otro científico implicado, enfatiza el potencial de esta tecnología para mejorar la calidad de vida de pacientes con parálisis severa. "Es alentador ver cómo la IA está acelerando el desarrollo de interfaces cerebro-computadora, permitiendo aplicaciones prácticas en un futuro cercano", señala.

En el estudio, los investigadores implantaron una interfaz cerebro-computadora en la mujer de 47 años, quien quedó con tetraplejía tras un accidente cerebrovascular. Para diseñar el sistema, primero le presentaron frases en la pantalla que ella intentó pronunciar en silencio. Con estos datos, entrenaron una red neuronal que registró la actividad cerebral a través de electrodos implantados en su corteza sensomotora del habla.

Luego, con esta tecnología, lograron descodificar el habla en línea, reproduciendo audios que imitaban su voz, gracias a un clip grabado antes de su lesión. Cheol Jun Cho, otro investigador, explica que la neuroprótesis capta las señales neuronales de la corteza motora, que controla la producción del habla, y las convierte en un mensaje audible.

"Interceptamos lo que ocurre en la mente antes de que el pensamiento se convierta en articulación; descodificamos lo que se piensa, qué palabras queremos usar y cómo mover los músculos del habla", añade Cho.

Este nuevo enfoque se diferencia drásticamente de estudios previos, donde la latencia alcanzaba hasta ocho segundos por frase. Con el novedoso método, el audio se genera casi inmediatamente mientras el sujeto intenta hablar, como se detalla en un comunicado de la Facultad de Ingeniería de Berkeley.

A fin de verificar que el sistema realmente estaba aprendiendo, los investigadores probaron el modelo con palabras no incluidas en el entrenamiento inicial, como términos del alfabeto fonético de la OTAN. Los resultados mostraron que el modelo pudo sintetizar estas palabras, lo que demuestra que está aprendiendo las bases del sonido y la voz.

Este avance no solo abre nuevas puertas en el tratamiento de trastornos del habla, sino que también establece las bases para futuras mejoras en la interacción humano-máquina, acercándonos a un mundo donde la comunicación no tenga barreras.