• Buscar
IA traduce los pensamientos

Un sistema de IA traduce los pensamientos directamente al habla

Un grupo de seudocientíficos de la Universidad de Columbia ha creado una interfaz capaz de traducir lo que un paciente oye en habla utilizando un sintetizador de voz que es fácilmente comprensible para un oyente externo. Este es un paso importante que podría allanar el camino para nuevas formas de comunicación por computadora para las personas que no pueden hablar debido a enfermedades neurodegenerativas o lesiones cerebrales.

El punto de inflexión de la IA. El estudio, descrito en Scientific Reports, fue posible gracias a un sistema de inteligencia artificial que aprendió a reconocer los rasgos recurrentes de las ondas cerebrales y a traducirlos en palabras. Cada vez que hablamos o imaginamos que estamos hablando, de hecho, el cerebro produce patrones característicos de ondas cerebrales, y lo mismo ocurre cuando escuchamos a alguien hablar, o imaginamos que estamos escuchando.

Hasta ahora, los intentos de decodificar las ondas cerebrales se basaban en el análisis por ordenador de los espectrogramas – representaciones gráficas de las frecuencias de sonido – pero los resultados dejaban algo que desear. Nima Mesgarani, el primer autor del estudio, pensó en lugar de usar un vocoder, un sistema que produce el lenguaje hablado después de haber “instruido” en grabaciones de personas que hablan. “Es la misma tecnología que usan Amazon Echo y Siri para dar respuestas verbales a nuestras preguntas”, explica.

De escuchar la palabra.Para entrenar al vocoder, Mesgarani colaboró con un neurocirujano que trataba a pacientes epilépticos, involucrados en intervenciones rutinarias. Los electrodos implantados en los cerebros de estos pacientes con fines terapéuticos también les permitieron registrar su actividad cerebral mientras escuchaban cuentos cortos contados por cuatro lectores diferentes.

En ese momento, cuando el algoritmo del vocoder estaba suficientemente “entrenado”, los mismos pacientes escuchaban a un orador pronunciando los números del 0 al 9. El vocoder analizó las ondas cerebrales producidas en su corteza auditiva, y las usó para traducir en palabras los pensamientos que había “escuchado”. El sonido producido fue analizado y limpiado por un sistema de red neuronal, un tipo de IA que imita la estructura y función de las neuronas en el cerebro humano. Los oyentes externos reconocieron los números listados por la voz robótica en el 75% de los casos, prueba de que la señal era bien reconocible.

Un puente para comunicarse.Los próximos pasos serán probar el sistema con frases más articuladas, pero sobre todo probarlo con las señales cerebrales que se emiten cuando una persona habla, intenta hablar o se imagina hablando. Si funcionara, uno podría imaginar que en el futuro – estamos hablando de una década por lo menos – un implante de electrodos cerebrales (invasivo) similar al de algunos pacientes epilépticos permitirá traducir los pensamientos del paciente directamente en palabras.

Dejar un comentario