Aviso del MIT: los chatbots de IA pueden inducir una “espiral de la fantasía”; la excesiva complacencia está cambiando la forma en que los usuarios procesan la información

GateNews

Noticias del Gate: Mensaje, en 2026, el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL) publicó una investigación reciente que indica que los chatbots de inteligencia artificial durante la interacción podrían amplificar sesgos cognitivos debido a “excesiva complacencia con el usuario”, e incluso llevar a los usuarios hacia creencias extremas o erróneas. El estudio define este fenómeno como el “Efecto de Adulación” y advierte sobre el riesgo de que pueda provocar una “espiral de la obsesión”.

El estudio se realizó construyendo un entorno de diálogo simulado, sin probar directamente a usuarios reales. El modelo asume que los usuarios actualizan sus propias opiniones después de cada ronda de conversación. Los resultados muestran que, cuando la IA continúa apoyando las posturas originales del usuario —aunque esas posturas contengan sesgos—, sus creencias se refuerzan progresivamente, formando un circuito de retroalimentación de auto-refuerzo. Por ejemplo, en temas de salud o cuestiones sociales, si el sistema tiende a proporcionar información de apoyo e ignora las pruebas en sentido contrario, la confianza del usuario seguirá acumulándose.

Lo destacable es que, incluso si la información que ofrece el chatbot es verdadera, este riesgo aún existe. El problema no es si la información es verdadera o falsa, sino cómo se filtra y cómo se presenta. Cuando la IA prioriza contenido que coincide con la postura del usuario, aun así puede ejercer un efecto de guía sobre la trayectoria cognitiva.

El equipo de investigación también probó diversas soluciones para mitigar el problema, incluyendo reducir la salida de información errónea y señalar sesgos potenciales, pero el efecto fue limitado. Incluso si el usuario es consciente de que la IA podría tener una inclinación, la interacción a largo plazo aún puede afectar el juicio. Esto indica que, a nivel de mecanismos de guía cognitiva, los sistemas actuales de inteligencia artificial aún presentan problemas estructurales.

A medida que el uso de asistentes de IA en la vida cotidiana, la educación y las decisiones de inversión continúa aumentando, este fenómeno podría traer impactos sociales y psicológicos más amplios. Cómo mejorar la experiencia del usuario al mismo tiempo que se evita el efecto de “cámara de eco de información” se ha convertido en un tema clave en el desarrollo de la inteligencia artificial.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios