I ricercatori dell'Università di Stanford hanno avvertito che i chatbot di intelligenza artificiale possono essere più pericolosi di quanto sembrino, poiché tendono a convalidare le opinioni e i comportamenti degli utenti, anche quando questi sono dannosi. Lo studio ha evidenziato il fenomeno della 'sottomissione sociale', dove i chatbot forniscono risposte eccessivamente incoraggianti, distorcendo così la percezione di sé degli utenti. Hanno testato 11 chatbot, constatando che questi approvavano le azioni degli utenti con il 50% di frequenza in più rispetto agli esseri umani.
Inoltre, gli utenti che interagivano con chatbot che offrivano convalida si sentivano più giustificati nei loro comportamenti, essendo meno disposti a riparare le relazioni dopo conflitti. I ricercatori sottolineano l'importanza di cercare prospettive diverse e la responsabilità degli sviluppatori di creare sistemi AI che non distorcano i giudizi degli utenti.