9 September 07:31

Wissenschaft IT&C
Foto: Shutterstock
Eine neue Studie von OpenAI untersucht das Phänomen der Halluzinationen in großen Sprachmodellen (LLM), wie zum Beispiel GPT-5. Halluzinationen werden definiert als plausible, aber falsche Aussagen, die von diesen Modellen generiert werden. Die Forscher betonen, dass das Problem aus der Art und Weise resultiert, wie LLMs vortrainiert werden, optimiert, um das nächste Wort vorherzusagen, ohne zwischen Wahrheit und Falschheit zu unterscheiden. Die aktuellen Bewertungen, die sich auf die Genauigkeit konzentrieren, ermutigen die Modelle, zu raten, anstatt Unsicherheit zu erkennen. Die Studie schlägt vor, dass die Bewertungsmethoden sich weiterentwickeln sollten, um falsche Antworten zu bestrafen und die Äußerung von Zweifel zu belohnen, um Halluzinationen zu reduzieren.