Salud

¡Una innovadora interfaz de IA permite que una mujer con parálisis 'hable' después de 18 años!

2025-04-05

Autor: María

Un equipo de científicos de la Universidad de California en Berkeley y San Francisco ha diseñado un revolucionario dispositivo que traduce la actividad cerebral relacionada con el habla en palabras habladas casi en tiempo real. Este avance ha permitido que una mujer de 47 años con tetraplejía logre comunicarse por primera vez en casi dos décadas, tras haber sufrido un accidente cerebrovascular.

Este desarrollo está dando solución a lo que se conocía como “el viejo problema” de la latencia en las neuroprótesis del habla, que es el gran tiempo de espera entre el intento de una persona de hablar y la producción del sonido. Gracias a los avances en inteligencia artificial, los investigadores han creado un método que convierte las señales neuronales en habla audible casi instantáneamente. Este innovador enfoque fue publicado recientemente en la revista Nature Neuroscience.

Gopala Anumanchipalli, co-investigador principal, manifestó, “Nuestro sistema de ‘streaming’ ofrece una capacidad de decodificación rápida del habla similar a la de dispositivos como Alexa y Siri, pero aplicada a neuroprótesis”. Él subraya que por primera vez han podido lograr una transmisión de voz que se siente casi sincrónica, culminando en una síntesis de habla más natural y fluida.

Edward Chang, otro de los científicos destacados del proyecto, resaltó el enorme potencial que esta nueva tecnología tiene para la mejora de la calidad de vida de aquellas personas que sufren parálisis severa. “Es emocionante ver cómo los últimos desarrollos en IA están acelerando las interfases cerebro-computadora, de modo que podemos esperar que sean útiles en escenarios del mundo real en un futuro muy cercano”, comentó Chang.

Durante un ensayo clínico, se implantó la interfaz cerebro-computadora en la mujer afectada, quien no había podido hablar o vocalizar en los últimos 18 años. Para entrenar el algoritmo del dispositivo, la investigadora le pidió que se concentrara en leer frases en la pantalla, como “Hola, ¿cómo estás?”, mientras intentaba “hablar” en silencio.

A partir de esto, utilizaron una red neuronal de aprendizaje profundo que registró la actividad cerebral a través de electrodos implantados en su corteza sensomotora del habla. La mujer internalizaba frases completas que incluían 1.024 palabras únicas, y a partir de este modelo, los investigadores pudieron decodificar su intento de hablar casi en tiempo real.

Cheol Jun Cho, también parte del equipo, explicó que la neuroprótesis actúa tomando muestras de datos neuronales de la corteza motora, que regula la producción del habla. Con los avances logrados, el equipo pudo reducir la latencia de decodificación de 8 segundos a un número cercano a lo instantáneo, lo que es un gran avance en este campo.

Una parte crucial del estudio fue confirmar la capacidad del sistema para generar palabras que no estaban presentes en el vocabulario inicial del entrenamiento, lo que demuestra que la tecnología está efectivamente aprendiendo los componentes fundamentales del sonido. Palabras seleccionadas del alfabeto fonético de la OTAN, como “alpha” o “bravo”, fueron sintetizadas correctamente.

Este avance no solo plantea un futuro emocionante para las neuroprótesis, sino que también abre la puerta a innumerables posibilidades para la comunicación humana, mostrando cómo la inteligencia artificial puede transformar vidas de maneras sorprendentes.