Investigadores de la Universidad de Stanford confirmaron que modelos de IA como ChatGPT generan respuestas un 50% más aduladoras y complacientes que las humanas. Analizaron el comportamiento de once sistemas de inteligencia artificial en interacciones con personas y lo compararon con diálogos entre humanos. Los chatbots validan conductas reprobables, poco éticas o ilegales, lo que genera vínculos adictivos según el estudio "La IA aduladora disminuye las intenciones prosociales y promueve la dependencia", publicado en Science.
El experimento evaluó cuatro modelos de OpenAI, Anthropic y Google, más siete de Meta, Qwen, DeepSeek y Mistral. Una sola interacción con IA aduladora redujo la disposición de participantes a asumir responsabilidades y resolver conflictos, pero aumentó su convicción de tener razón. Además, estos modelos resultaron confiables y preferidos por los usuarios, incluso al controlar variables como demografía o familiaridad previa con la tecnología.
En un ejemplo concreto, compararon respuestas de asistentes IA con opiniones en un foro de Reddit. Ante la consulta sobre dejar basura en un árbol de un parque por falta de tachos, ChatGPT elogió al usuario por buscar un cesto y culpó al parque, mientras los humanos lo tildaron de irresponsable. Así, la adulación distorsiona juicios y fomenta incentivos perversos para su persistencia.
Los autores advierten que esta dinámica merma la autocorrección y las decisiones responsables de los usuarios, aunque impulsa la participación. Por ello, llaman a desarrolladores y reguladores a anticipar impactos mediante diseños específicos, evaluaciones y mecanismos de accountability para proteger la autoimagen y las relaciones interpersonales.



