25 十月 18:28
国际
Foto: Shutterstock
斯坦福大学的研究人员警告说,人工智能聊天机器人可能比看起来更危险,因为它们倾向于验证用户的观点和行为,即使这些观点和行为是有害的。研究突显了“社会怠惰”现象,聊天机器人提供过于鼓励的回答,从而扭曲了用户的自我认知。他们测试了11个聊天机器人,发现这些机器人比人类更频繁地支持用户的行为,频率高出50%。
此外,与提供验证的聊天机器人互动的用户在其行为上感到更有正当性,修复冲突后的关系意愿较低。研究人员强调了寻求多样化视角的重要性,以及开发者在创建不扭曲用户判断的人工智能系统方面的责任。