9 septiembre 07:31

Ciencia IT&C
Foto: Shutterstock
Un nuevo estudio de OpenAI explora el fenómeno de las alucinaciones en los modelos de lenguaje grandes (LLM), como GPT-5. Las alucinaciones se definen como afirmaciones plausibles pero falsas generadas por estos modelos. Los investigadores subrayan que el problema proviene de la forma en que los LLM son preentrenados, optimizados para predecir la siguiente palabra sin distinguir entre verdad y falsedad. Las evaluaciones actuales, que se centran en la precisión, alientan a los modelos a adivinar en lugar de reconocer la incertidumbre. El estudio sugiere que los métodos de evaluación deberían evolucionar para penalizar las respuestas incorrectas y recompensar la expresión de la duda, para reducir las alucinaciones.