过去24小时有 46 条新闻 14 七月 15:27 斯坦福大学的一项新研究警告说,基于人工智能的治疗聊天机器人可能会提供污名化或不恰当的回复,从而给用户带来风险。 Ana-Maria Tapescu 科学 IT&C Foto: INSTAR Images / Profimedia 这项题为 "表达的成见和不恰当的回应阻碍了LLM安全地取代心理健康提供者 "的研究评估了五个基于语言建模的聊天机器人,这些语言建模旨在模拟治疗对话。主要作者贾里德-摩尔(Jared Moore)强调说,"较新和较大的模型与较旧的模型相比,仍显示出相同程度的成见"。 来源 Control F5 Stanford Study Flags Major Risks in Using AI Chatbots for Mental Health Support ȘTIRI PE ACELEAȘI SUBIECTE 科学 IT&C 青少年越来越多地使用人工智能应用程序来获得情感支持,甚至模拟人际关系。 新闻 OpenAI 正在推出 ChatGPT 的新功能,以识别情绪困扰并鼓励在互动中暂停。 科学 IT&C 微软人工智能部门的负责人警告说,研究人工智能意识是“危险的” 国际 加利福尼亚一名16岁男孩的父母起诉了OpenAI,声称ChatGPT鼓励他自杀,并提供了详细的建议 新闻 安全测试表明,人工智能模型可以提供网络攻击和制造炸药的指示,提出了严重的担忧 科学 IT&C 内置聊天机器人的可爱玩具正在引发争议:一些人认为它们是限制屏幕时间的一种方式,另一些人则认为它们是父母的替代品。 个性化新闻推送、AI搜索与通知,更具互动性的体验。 聊天机器人 人工智能 风险 精神健康