Más

    Han desarrollado un modelo GPT que lee el pensamiento

    Scientific American señala que un grupo de investigadores ha desarrollado un modelo GPT que lee el pensamiento humano. El programa no es muy distinto de ChatGPT en el sentido de que puede generar un lenguaje coherente y continuo a partir de un mensaje. La principal diferencia es que el estímulo es la actividad cerebral humana.

    Un método no invasivo, según sus creadores

    El equipo de la Universidad de Texas en Austin acaba de publicar su estudio en Nature Neuroscience. El método utiliza imágenes de una máquina de IRMf para interpretar lo que el sujeto está «oyendo, diciendo o imaginando». Los científicos califican la técnica de «no invasiva», lo cual es irónico, ya que leer los pensamientos de alguien es lo más invasivo que se puede hacer.

    Sin embargo, el equipo quiere decir que su método no es invasivo desde el punto de vista médico. No es la única vez que los científicos han desarrollado una tecnología capaz de leer los pensamientos, pero sí es el único método exitoso que no requiere electrodos conectados al cerebro del sujeto.

    El modelo, bautizado con el poco imaginativo nombre de GPT-1, es el único método que interpreta la actividad cerebral en un formato de lenguaje continuo. Otras técnicas pueden escupir una palabra o una frase corta, pero GPT-1 puede formar descripciones complejas que explican lo esencial de lo que el sujeto está pensando.

    Por ejemplo, un participante escuchó la grabación de alguien que decía: «Aún no tengo el carné de conducir». El modelo lingüístico interpretó que la imagen de la RMf significaba: «Todavía no ha empezado a aprender a conducir». Así que, aunque no lee los pensamientos de la persona al pie de la letra, puede hacerse una idea general y resumirla.

    Información a través de la sangre

    Los métodos invasivos pueden interpretar palabras exactas porque están entrenados para reconocer funciones motoras físicas específicas del cerebro, como el movimiento de los labios para formar una palabra. El modelo GPT-1 determina su rendimiento en función del flujo sanguíneo cerebral. No puede repetir pensamientos con precisión porque trabaja en un nivel superior de funcionamiento neurológico.

    «Nuestro sistema funciona a un nivel muy distinto», explicó el profesor adjunto Alexander Huth, del Centro de Neurociencia e Informática de la Universidad de Austin, en una rueda de prensa celebrada el pasado jueves. «En lugar de fijarnos en esta cosa motora de bajo nivel, nuestro sistema funciona realmente al nivel de las ideas, de la semántica y del significado. A eso es a lo que llega».

    Internet como fuente de información

    El avance se produjo tras alimentar al GPT-1 con comentarios de Reddit y relatos «autobiográficos». A continuación, lo entrenaron con los escáneres de tres voluntarios que pasaron 16 horas cada uno escuchando historias grabadas mientras estaban en la máquina de IRMf. Esto permitió a GPT-1 vincular la actividad neuronal a las palabras e ideas de las grabaciones.

    Una vez entrenados, los voluntarios escucharon nuevas historias mientras eran escaneados y el GPT-1 determinó con precisión la idea general de lo que los participantes estaban oyendo. En el estudio también se utilizaron películas mudas, y la imaginación de los voluntarios para probar la tecnología, con resultados similares.

    Curiosamente, la GPT-1 fue más precisa a la hora de interpretar las sesiones de grabación de audio que las historias inventadas de los participantes. Podría atribuirse a la naturaleza abstracta de los pensamientos imaginarios frente a las ideas más concretas, que se forman al escuchar algo. Dicho esto, la GPT-1 se aproximó bastante a la lectura de los pensamientos tácitos.

    Un avance no exento de polémica

    El hecho de que hayan desarrollado un modelo GPT que lee el pensamiento puede ser la forma más controvertida de tecnología GPT. Aunque el equipo prevé que esta tecnología ayude a hablar a pacientes con ELA o afasia, reconoce que puede dar lugar a abusos. En su forma actual, requiere el consentimiento del sujeto para funcionar, pero el estudio admite que los malos actores podrían crear una versión que anulara esa comprobación.

    La privacidad como pilar fundamental

    «Nuestro análisis de la privacidad sugiere que actualmente se requiere la cooperación del sujeto tanto para entrenar como para aplicar el descodificador» – dijo uno de los responsables del proyecto.

    Sin embargo, futuros desarrollos podrían permitir a los descodificadores eludir estos requisitos. Además, incluso si las predicciones del descodificador son inexactas sin la cooperación del sujeto, podrían malinterpretarse intencionadamente con fines maliciosos.

    Por estas y otras razones imprevistas, es fundamental concienciar sobre los riesgos de la tecnología de descodificación cerebral y promulgar políticas que protejan la privacidad mental de cada persona.»

    Por supuesto, este escenario asume que la tecnología fMRI puede miniaturizarse lo suficiente como para ser práctica fuera de un entorno clínico. Cualquier aplicación que no sea la investigación está aún muy lejos.

    Comentarios

    Te puede interesar

    Mas leídas

    Otros temas de interés