9 9月 14:31
IT&Cの知識
Foto: Shutterstock
OpenAIの新しい研究は、GPT-5のような大規模言語モデル(LLM)における幻覚現象を探求しています。幻覚は、これらのモデルによって生成される、もっともらしいが虚偽の主張として定義されます。研究者たちは、問題がLLMが事前に訓練される方法に起因していることを強調しており、次の単語を予測するために最適化されているため、真実と虚偽を区別することができません。現在の評価は正確性に焦点を当てており、モデルが不確実性を認識するのではなく、推測することを奨励しています。この研究は、評価方法が進化し、誤った回答に対して罰を与え、不確実性の表現を奨励するべきであることを示唆しています。幻覚を減少させるために。