Header Ads

Un implante cerebral traduce los pensamientos en voz casi instantáneamente

Un implante cerebral potenciado con inteligencia artificial ha permitido a una mujer paralizada traducir sus pensamientos en lenguaje casi instantáneamente, anunciaron el lunes investigadores estadounidenses.

El dispositivo, todavía experimental, utiliza un implante que conecta áreas del cerebro a computadoras y podría permitir a las personas que han perdido la capacidad de comunicarse recuperar alguna forma de acceso al habla.



El equipo de investigación con sede en California utilizó previamente una interfaz cerebro-computadora para decodificar los pensamientos de Ann, una cuadripléjica de 47 años, antes de transcribirlos en voz.

Pero la operación impuso un retraso de ocho segundos entre el momento en que la paciente pensaba lo que quería decir y el momento en que una voz artificial generada por computadora lo decía.

Una restricción a las conversaciones dirigidas por Ann, una ex profesora de matemáticas que perdió la capacidad de hablar después de un ataque cardíaco hace 18 años.

La nueva interfaz del equipo, anunciada en la revista Nature Neuroscience, reduce el tiempo entre los pensamientos y el habla a 80 milisegundos.

"Nuestro nuevo método de transmisión convierte las señales cerebrales en voz personalizada en tiempo real, un segundo después de la intención de hablar de la persona", dijo a la AFP el autor principal del estudio, Gopala Anumanchipalli, de la Universidad de California en Los Ángeles.

El objetivo del ex profesor es convertirse en consejero universitario, dijo. "Aunque aún estamos lejos de alcanzar este objetivo para Ann, este paso debería permitirnos, en última instancia, mejorar significativamente la calidad de vida de las personas que sufren parálisis vocal", afirmó.


Vocabulario de 1.024 palabras

Para esta investigación, a Ann le mostraron frases en una pantalla, como "entonces me amas", que luego repitió en su cabeza.

Esas frases fueron luego convertidas en una réplica de su voz, construida utilizando grabaciones anteriores a su accidente. La paciente "estaba emocionada de escuchar su voz y sentía que estaba encarnada en ella", dijo Anumanchipalli.

La interfaz cerebro-computadora intercepta la señal cerebral "después de que hemos decidido lo que queremos decir, después de que hemos elegido qué palabras utilizar y cómo mover los músculos del tracto vocal", explicó el investigador.

El modelo aprovechó un método de inteligencia artificial de aprendizaje profundo y se entrenó con miles de frases que Ann decía en su cabeza.

El modelo, que no está libre de errores, trabaja con un vocabulario todavía limitado a 1.024 palabras.

Esta investigación todavía está en una fase "muy temprana de prueba de concepto", explicó a la AFP el profesor de neuroprótesis Patrick Degenaar, de la universidad británica de Newcastle (Gran Bretaña), que no participó en este estudio. Mientras lo calificaban de "genial".

Señaló que el método utiliza un haz de electrodos que no penetra en el cerebro, a diferencia de la interfaz propuesta por la empresa Neuralink del multimillonario estadounidense Elon Musk.

La cirugía para colocar dicho conjunto de electrodos es bastante común en los departamentos hospitalarios especializados en el diagnóstico de la epilepsia. Esto debería facilitar su aplicación en pacientes con trastornos del habla, según el profesor Degenaar.

Gopala Anumanchipalli estima que con fondos específicos para la investigación en esta área, esta tecnología podría implementarse dentro de cinco a diez años.

No hay comentarios

Siéntete libre de expresar tus opiniones pero muestra respeto por los demás y por nuestra politica de contenido.

Con la tecnología de Blogger.