Az OpenAI vizsgálja azokat az okokat, amelyek miatt a fejlett nyelvi modellek, mint például a GPT-5, hallucinációkat okoznak.
Gabriel Dumitrache
IT&C tudomány
Foto: Shutterstock
Az OpenAI új tanulmánya a nagy nyelvi modellek (LLM), mint például a GPT-5, hallucinációs jelenségét vizsgálja. A hallucinációk olyan plauzibilis, de hamis állítások, amelyeket ezek a modellek generálnak. A kutatók hangsúlyozzák, hogy a probléma abból adódik, ahogyan az LLM-eket előképzik, optimalizálva a következő szó előrejelzésére anélkül, hogy megkülönböztetnék az igazságot a hamisságtól. A jelenlegi értékelések, amelyek a pontosságra összpontosítanak, arra ösztönzik a modelleket, hogy találgassanak ahelyett, hogy felismernék a bizonytalanságot. A tanulmány azt javasolja, hogy az értékelési módszereknek fejlődniük kellene, hogy büntessék a helytelen válaszokat és jutalmazzák a kételkedés kifejezését, hogy csökkentsék a hallucinációkat.