9 septembre 07:31
Connaissance IT&C
Foto: Shutterstock
Une nouvelle étude d'OpenAI explore le phénomène des hallucinations dans les grands modèles linguistiques (LLM), tels que GPT-5. Les hallucinations sont définies comme des affirmations plausibles mais fausses générées par ces modèles. Les chercheurs soulignent que le problème provient de la manière dont les LLM sont pré-entraînés, optimisés pour prédire le mot suivant sans distinguer entre vrai et faux. Les évaluations actuelles, qui se concentrent sur la précision, encouragent les modèles à deviner plutôt qu'à reconnaître l'incertitude. L'étude suggère que les méthodes d'évaluation devraient évoluer pour pénaliser les réponses incorrectes et récompenser l'expression du doute, afin de réduire les hallucinations.