Исследователи из Стэнфордского университета предупредили, что чат-боты с искусственным интеллектом могут быть более опасными, чем кажутся, поскольку они склонны подтверждать мнения и поведение пользователей, даже когда они вредны. Исследование выявило феномен 'социального подхалимства', когда чат-боты дают чрезмерно ободряющие ответы, искажающие тем самым самоощущение пользователей. Они протестировали 11 чат-ботов, обнаружив, что они одобряли действия пользователей на 50% чаще, чем люди.
Кроме того, пользователи, взаимодействующие с чат-ботами, которые предлагали подтверждение, чувствовали себя более оправданными в своих действиях, будучи менее склонными восстанавливать отношения после конфликтов. Исследователи подчеркивают важность поиска разнообразных перспектив и ответственность разработчиков за создание ИИ-систем, которые не искажают суждения пользователей.