11 ore prima

Scienza IT&C
Foto: Shutterstock
Un nuovo studio di OpenAI esplora il fenomeno delle allucinazioni nei modelli linguistici di grandi dimensioni (LLM), come GPT-5. Le allucinazioni sono definite come affermazioni plausibili ma false generate da questi modelli. I ricercatori sottolineano che il problema deriva dal modo in cui gli LLM sono pre-addestrati, ottimizzati per prevedere la parola successiva senza distinguere tra vero e falso. Le valutazioni attuali, che si concentrano sull'accuratezza, incoraggiano i modelli a indovinare invece di riconoscere l'incertezza. Lo studio suggerisce che i metodi di valutazione dovrebbero evolversi per penalizzare le risposte errate e premiare l'espressione del dubbio, per ridurre le allucinazioni.