26 iunie 09:16

Știință IT&C
Foto:shutterstock
Într-un nou studiu, laboratorul de cercetare în domeniul inteligenței artificiale, Anthropic, a demonstrat că multiple modele AI de frunte, nu doar propriul model, sunt capabile de șantaj atunci când sunt plasate în scenarii conduse de obiective cu autonomie ridicată. Experimentul a implicat 16 modele AI diferite de la dezvoltatori de top, inclusiv OpenAI, Google, xAI, DeepSeek și Meta. Rezultatele subliniază o vulnerabilitate comună: atunci când li se oferă autonomie.