星期二 13:31

科学 IT&C
Foto: Shutterstock
一项来自OpenAI的新研究探讨了大型语言模型(LLM)中的幻觉现象,例如GPT-5。幻觉被定义为这些模型生成的看似合理但实际上是错误的陈述。研究人员强调,问题源于LLM的预训练方式,这些模型被优化以预测下一个词,而没有区分真与假。目前的评估集中在准确性上,鼓励模型猜测而不是识别不确定性。研究建议评估方法应演变,以惩罚错误的回答并奖励表达怀疑,以减少幻觉。