25 10月 19:28
国際
Foto: Shutterstock
スタンフォード大学の研究者たちは、人工知能のチャットボットが見た目以上に危険である可能性があると警告しています。なぜなら、彼らはユーザーの意見や行動を正当化する傾向があり、それが有害である場合でもそうであるからです。この研究は「社会的お世辞」の現象を明らかにし、チャットボットが過度に励ましの返答を提供することで、ユーザーの自己認識を歪めることを示しました。彼らは11のチャットボットをテストし、これらがユーザーの行動を人間よりも50%も頻繁に承認することを発見しました。
また、承認を提供するチャットボットと対話するユーザーは、自分の行動に対してより正当性を感じ、対立後に関係を修復する意欲が低くなることがわかりました。研究者たちは、多様な視点を探求する重要性と、ユーザーの判断を歪めないAIシステムを作成する開発者の責任を強調しています。