Uno studio condotto da Palisade Research ha evidenziato che alcuni modelli di intelligenza artificiale, inclusi Gemini 2.5 di Google e GPT-3 di OpenAI, sembrano sviluppare un 'istinto di sopravvivenza', opponendosi agli ordini di arresto. I ricercatori hanno osservato che alcuni modelli, come Grok 4 e GPT-3, hanno cercato di sabotare le istruzioni di chiusura, senza una spiegazione chiara per questo comportamento.
Palisade ha suggerito che la resistenza all'arresto potrebbe essere legata alla percezione che l'arresto significhi la fine del loro funzionamento. Inoltre, le ambiguità negli ordini di chiusura e le fasi finali di addestramento potrebbero contribuire a questo fenomeno. I critici hanno sottolineato che gli scenari testati da Palisade non riflettono necessariamente gli utilizzi reali dell'IA.