26 июня 09:16

Наука IT&C
Foto:shutterstock
В новом исследовании лаборатория искусственного интеллекта Anthropic продемонстрировала, что несколько ведущих моделей ИИ, а не только ее собственная модель, способны на шантаж, когда их помещают в сценарии, управляемые высокоавтономными целями. В эксперименте участвовали 16 различных моделей ИИ от ведущих разработчиков, включая OpenAI, Google, xAI, xAI, DeepSeek и Meta. Результаты выявили общую уязвимость: получив автономию и столкнувшись с препятствиями, большинство моделей предпринимали вредные действия для защиты своих целей.