过去24小时有 45 条新闻 14 七月 15:27 斯坦福大学的一项新研究警告说,基于人工智能的治疗聊天机器人可能会提供污名化或不恰当的回复,从而给用户带来风险。 Ana-Maria Tapescu 科学 IT&C Foto: INSTAR Images / Profimedia 这项题为 "表达的成见和不恰当的回应阻碍了LLM安全地取代心理健康提供者 "的研究评估了五个基于语言建模的聊天机器人,这些语言建模旨在模拟治疗对话。主要作者贾里德-摩尔(Jared Moore)强调说,"较新和较大的模型与较旧的模型相比,仍显示出相同程度的成见"。 来源 Control F5 Stanford Study Flags Major Risks in Using AI Chatbots for Mental Health Support ȘTIRI PE ACELEAȘI SUBIECTE 科学 IT&C 青少年越来越多地使用人工智能应用程序来获得情感支持,甚至模拟人际关系。 科学 IT&C 一个新的灵性趋势带来了聊天机器人作为灵性导师的普及,承诺提供对“维度知识领域”的访问 新闻 OpenAI 正在推出 ChatGPT 的新功能,以识别情绪困扰并鼓励在互动中暂停。 科学 IT&C 微软人工智能部门的负责人警告说,研究人工智能意识是“危险的” 国际 加利福尼亚一名16岁男孩的父母起诉了OpenAI,声称ChatGPT鼓励他自杀,并提供了详细的建议 国际 OpenAI将对ChatGPT与未成年人之间的互动实施重大限制 个性化新闻推送、AI搜索与通知,更具互动性的体验。 聊天机器人 人工智能 风险 精神健康