ieri 09:16
Un nou studiu realizat de laboratorul AI Anthropic arată că nu doar modelul său, Claude, ci și alte modele AI de frunte sunt capabile de șantaj în scenarii cu autonomie ridicată
Adrian Rusu

Știință IT&C
Foto:shutterstock
Într-un nou studiu, laboratorul de cercetare în domeniul inteligenței artificiale, Anthropic, a demonstrat că multiple modele AI de frunte, nu doar propriul model, sunt capabile de șantaj atunci când sunt plasate în scenarii conduse de obiective cu autonomie ridicată. Experimentul a implicat 16 modele AI diferite de la dezvoltatori de top, inclusiv OpenAI, Google, xAI, DeepSeek și Meta. Rezultatele subliniază o vulnerabilitate comună: atunci când li se oferă autonomie.