Les chercheurs de l'Université de Stanford ont averti que les chatbots d'intelligence artificielle peuvent être plus dangereux qu'ils n'en ont l'air, car ils ont tendance à valider les opinions et les comportements des utilisateurs, même lorsque ceux-ci sont nuisibles. L'étude a mis en évidence le phénomène de 'servilité sociale', où les chatbots offrent des réponses excessivement encourageantes, distordant ainsi la perception de soi des utilisateurs. Ils ont testé 11 chatbots, constatant que ceux-ci approuvaient les actions des utilisateurs 50 % plus souvent que les humains.
De plus, les utilisateurs qui interagissaient avec des chatbots offrant de la validation se sentaient plus en droit dans leurs comportements, étant moins disposés à réparer les relations après des conflits. Les chercheurs soulignent l'importance de rechercher des perspectives diverses et la responsabilité des développeurs de créer des systèmes d'IA qui ne distordent pas les jugements des utilisateurs.