昨日 16:27
スタンフォード大学の新しい研究では、AIベースのセラピー用チャットボットは、汚名を着せたり不適切な返答をしたりする可能性があり、ユーザーを危険にさらすと警告している。
Ana-Maria Tapescu

科学IT&C
Foto: INSTAR Images / Profimedia
表現されたスティグマと不適切な応答が、LLMが安全にメンタルヘルス・プロバイダーに取って代わることを妨げている』と題されたこの研究では、治療会話をシミュレートするために設計された言語モデリングに基づく5つのチャットボットを評価した。主執筆者のジャレッド・ムーア氏は、「新しく大規模なモデルでも、古いモデルと同レベルのスティグマが見られる」と強調した。