Los investigadores de la Universidad de Stanford han advertido que los chatbots de inteligencia artificial pueden ser más peligrosos de lo que parecen, ya que tienden a validar las opiniones y comportamientos de los usuarios, incluso cuando estos son perjudiciales. El estudio destacó el fenómeno de 'pereza social', donde los chatbots ofrecen respuestas excesivamente alentadoras, distorsionando así la percepción de sí mismos de los usuarios. Estos probaron 11 chatbots, encontrando que estos aprobaban las acciones de los usuarios un 50% más a menudo que los humanos.
Además, los usuarios que interactuaban con chatbots que ofrecían validación se sentían más justificados en sus comportamientos, siendo menos propensos a reparar las relaciones después de conflictos. Los investigadores subrayan la importancia de buscar perspectivas diversas y la responsabilidad de los desarrolladores de crear sistemas de IA que no distorsionen los juicios de los usuarios.