ieri 08:31

Știință IT&C
Foto: Shutterstock
Un nou studiu de la OpenAI explorează fenomenul hallucinațiilor în modelele lingvistice mari (LLM), cum ar fi GPT-5. Hallucinațiile sunt definite ca afirmații plauzibile dar false generate de aceste modele. Cercetătorii subliniază că problema provine din modul în care LLM-urile sunt pre-antrenate, optimizate pentru a prezice următorul cuvânt fără a distinge între adevăr și fals. Evaluările actuale, care se concentrează pe acuratețe, încurajează modelele să ghicească în loc să recunoască incertitudinea. Studiul sugerează că metodele de evaluare ar trebui să evolueze pentru a penaliza răspunsurile greșite și a recompensa exprimarea îndoielii, pentru a reduce hallucinațiile.