Por LAURA UNGAR
Científicos han desarrollado un dispositivo que puede traducir pensamientos en palabras habladas en tiempo real. Aunque todavía es experimental, esperan que la interfaz cerebro-computadora pueda algún día ayudar a dar voz a aquellos que no pueden hablar.
El implante fue colocado en una mujer de 47 años con cuadriplejía que no pudo hablar durante 18 años después de un derrame cerebral. Los médicos lo implantaron en su cerebro durante una cirugía como parte de un ensayo clínico.
“Convierte su intención de hablar en oraciones fluidas”, afirmó Gopala Anumanchipalli, coautor del estudio publicado el lunes en la revista Nature Neuroscience.
Otras interfaces cerebro-computadora típicamente tienen un ligero retraso entre los pensamientos de las oraciones y la verbalización computarizada. Tales retrasos pueden interrumpir el flujo natural de la conversación, lo que potencialmente lleva a malentendidos y frustración, declararon los investigadores.
Esto es “un avance bastante grande en nuestro campo”, comentó Jonathan Brumberg del Laboratorio de Habla y Neurociencia Aplicada de la Universidad de Kansas, quien no formó parte del estudio.
Un equipo en California registró la actividad cerebral de la mujer usando electrodos mientras ella pronunciaba oraciones en silencio en su mente. Los científicos utilizaron un sintetizador que construyeron usando su voz antes de su lesión para crear un sonido parecido a su voz. Entrenaron un modelo de IA que traduce la actividad neuronal en unidades de sonido.
Funciona de manera similar a los sistemas existentes utilizados para transcribir reuniones o llamadas telefónicas en tiempo real, explicó Anumanchipalli, de la Universidad de California, Berkeley.
El implante en sí se coloca en la parte del cerebro que controla el habla de manera tal que pueda escuchar sonidos, y esas señales se traducen en fragmentos de habla que componen oraciones. Es un “enfoque de transmisión”, indicó Anumanchipalli, con cada fragmento de 80 milisegundos de habla, aproximadamente la mitad de una sílaba, enviado a un grabador.
“No espera a que termine una oración”, expresó Anumanchipalli. “Lo está procesando sobre la marcha”.
Decodificar el habla tan rápidamente tiene el potencial de seguir el ritmo acelerado del habla natural, comentó Brumberg. El uso de muestras de voz, añadió, “sería un avance significativo en la naturalidad del habla”.
Aunque el trabajo fue parcialmente financiado por los Institutos Nacionales de Salud, Anumanchipalli dijo que no se vio afectado por los recientes recortes en esa agencia. Se necesita más investigación antes de que la tecnología esté lista para un uso generalizado, pero con “inversiones sostenidas”, podría estar disponible para los pacientes dentro de una década, afirmó.
___________________________________
The Associated Press recibe apoyo para sus coberturas de salud y ciencia de parte del Departamento de Educación Científica del Instituto Médico Howard Hughes y la Robert Wood Johnson Foundation. La AP es la única responsable del contenido.
___________________________________
Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.