14 七月 15:27
斯坦福大学的一项新研究警告说,基于人工智能的治疗聊天机器人可能会提供污名化或不恰当的回复,从而给用户带来风险。
Ana-Maria Tapescu

科学 IT&C
Foto: INSTAR Images / Profimedia
这项题为 "表达的成见和不恰当的回应阻碍了LLM安全地取代心理健康提供者 "的研究评估了五个基于语言建模的聊天机器人,这些语言建模旨在模拟治疗对话。主要作者贾里德-摩尔(Jared Moore)强调说,"较新和较大的模型与较旧的模型相比,仍显示出相同程度的成见"。