REDACCIÓN CIENCIA.- La ‘teoría de la mente’ es un rasgo distintivo de la inteligencia emocional y social que permite inferir las intenciones de otras personas. Ahora, un nuevo experimento constata que grandes modelos de lenguaje podrían ser tan buenos como los humanos, o incluso mejor, para rastrear algunos estados mentales.
Los autores de este estudio publicado en la revista Nature Human Behaviour advierten, no obstante, de que el hecho de que los grandes modelos de lenguaje (LLM) muestren un rendimiento similar al de los humanos en estas tareas «no equivale a capacidades similares a las de los humanos y no significa que posean una teoría de la mente».
Lea también: Google lanzó Gemini: nueva herramienta de inteligencia artificial que compite con ChatGPT
Los experimentos, liderados por investigadores del Centro Médico Universitario Hamburgo-Eppendorf (Alemania), se realizaron con los modelos ChatGPT-3.5 y GPT-4 de OpenAI y Llama 2 de Meta.
«Los dos tipos de LLM tienen un rendimiento similar al de los humanos e incluso superior en determinadas situaciones, en tareas que ponen a prueba la capacidad de seguir los estados mentales de los demás -como sus intenciones-, lo que se conoce como teoría de la mente», resume la revista.
Esta teoría es fundamental para las interacciones sociales humanas y resulta esencial para la comunicación y la empatía. Investigaciones anteriores habían demostrado que los LLM, un tipo de inteligencia artificial, son capaces de resolver tareas cognitivas complejas, como la toma de decisiones de elección múltiple.
Ingrese aquí: Iberdrola
EFE