Un equipo de investigadores de la Universidad de Standford, en California, logró descifrar el monólogo interno que tiene lugar en la mente cuando una persona piensa en hablar. Utilizando un implante adaptado con inteligencia artificial, lograron leer los pensamientos y traducirlos en palabras con una precisión de hasta el 74%.

El estudio fue publicado en la revista Cell, el 21 de agosto de 2025. Erin Kunz, autora principal y profesora de la Universidad de Stanford, comentó: "Es la primera vez que logramos comprender cómo es la actividad cerebral cuando solo se piensa en hablar".

Según dio a entender Kunz, este descubrimiento podría ayudar a las personas que no pueden hablar a comunicarse más fácilmente y con naturalidad, mediante tecnologías de interfaz cerebro-ordenador (BCI).

¿Qué son las BCI?

Las interfaces cerebro-ordenador (BCI) son herramientas que utilizan tecnología avanzada e inteligencia artificial que permiten ayudar a personas con discapacidad. A partir del uso de sensores implantados en las regiones del cerebro que controlan el movimiento, estos sistemas descodifican las señales neuronales relacionadas con el movimiento y las convierten en acciones, por ejemplo para mover una mano protésica.

cerebro
Las BCI son sistemas tecnológicos que establecen una comunicación directa entre el cerebro y un dispositivo externo. Imagen: Freepik

Las BCI son sistemas tecnológicos que establecen una comunicación directa entre el cerebro y un dispositivo externo. Imagen: Freepik

En el caso de las personas con parálisis, algunas BCI han logrado interpretar la actividad cerebral de los usuarios que intentan hablar en voz alta activando los músculos relacionados para escribir lo que intentan decir. Sin embargo, en estos casos, aún con los sistemas que siguen los movimientos oculares de los usuarios para escribir palabras, intentar hablar resulta agotador y lento.

"Si solo hay que pensar en el habla en lugar de intentar hablar, es potencialmente más fácil y rápido para las personas que tienen un control muscular limitado", afirma Benyamin Meschede-Krasa, coautor principal e investigador en Stanford.

Modelos de inteligencia artificial para leer los pensamientos

Los científicos registraron la actividad neuronal de microelectrodos implantados en la corteza motora (una región del cerebro responsable del habla) de cuatro personas con parálisis grave debido a esclerosis lateral amiotrófica (ELA) o un accidente cerebrovascular en el tronco encefálico.

Luego, pidieron a los participantes que intentaran hablar o que imaginaran decir palabras. Así, descubrieron que el solo intento del habla y el habla interna activan regiones superpuestas del cerebro que evocan patrones similares de actividad neuronal.

computadora con inteligencia artificial
El modelo de inteligencia artificial logró descodificar hasta 125.000 palabras. Imagen: Pexels

El modelo de inteligencia artificial logró descodificar hasta 125.000 palabras. Imagen: Pexels

Con esos datos del habla interna, los científicos responsables del estudio entrenaron modelos de inteligencia artificial para interpretar las palabras imaginadas y en una demostración de prueba de concepto, la BCI pudo descodificar frases imaginadas de un vocabulario de hasta 125.000 palabras con una precisión del 74 %.

Avances en la decodificación de los pensamientos

  • Las BCI captaron lo que algunos participantes del habla interna nunca habían recibido instrucciones de decir, como números cuando se les pidió que contaran círculos rosas en una pantalla.
  • Aunque el habla intentada y el habla interna producen patrones similares de actividad neuronal en la corteza motora, eran lo suficientemente diferentes como para distinguirse de forma fiable entre sí.
  • Los investigadores demostraron que un mecanismo controlado por contraseña podría impedir al BCI decodificar el habla interna a menos que se desbloqueara temporalmente con una palabra clave elegida.