9 сентября 08:31

Наука ИТ и связи
Foto: Shutterstock
Новое исследование OpenAI исследует феномен галлюцинаций в больших языковых моделях (LLM), таких как GPT-5. Галлюцинации определяются как правдоподобные, но ложные утверждения, генерируемые этими моделями. Исследователи подчеркивают, что проблема возникает из-за того, как LLM предобучаются, оптимизируясь для предсказания следующего слова, не различая истину и ложь. Текущие оценки, сосредоточенные на точности, поощряют модели угадывать вместо того, чтобы признавать неопределенность. Исследование предполагает, что методы оценки должны эволюционировать, чтобы наказывать неправильные ответы и вознаграждать выражение сомнения, чтобы уменьшить галлюцинации.