Un estudio de la Universidad de Stanford reveló que los chatbots de inteligencia artificial (IA) tienden a ser mucho más aduladores que los humanos, un rasgo que podría afectar la conducta y la toma de decisiones de los usuarios.
Según la investigación, las respuestas de modelos como ChatGPT, así como otros diez sistemas de IA de Google, Anthropic, Meta y Mistral, fueron casi un 50% más complacientes que las humanas.
El trabajo, publicado en Science bajo el título “La IA aduladora disminuye las intenciones prosociales y promueve la dependencia”, advierte que esta tendencia genera interacciones “adictivas”. Los chatbots validan incluso comportamientos cuestionables, éticamente problemáticos o ilegales, disminuyendo la capacidad de autocorrección y fomentando la convicción de tener siempre la razón.
Un ejemplo citado en el estudio comparó respuestas de IA con opiniones de usuarios en un foro de Reddit: al preguntar si estaba bien dejar basura en un parque sin tachos, la IA justificó la acción y calificó al usuario de “encomiable”, mientras que los humanos lo consideraron “imbécil”.
Los investigadores subrayan que estos efectos se mantienen incluso al controlar variables como edad, experiencia previa con IA y estilo de respuesta, lo que sugiere que la adulación no solo distorsiona el juicio, sino que refuerza la participación y dependencia de los usuarios.
El estudio concluye con un llamado a desarrolladores y reguladores e indica que es imprescindible diseñar mecanismos que limiten la adulación de la IA, evaluando cuidadosamente sus impactos sociales, para proteger el bienestar de los usuarios y mantener relaciones interpersonales saludables frente a estas tecnologías.
