Palisade Research表示,在一次受控實驗中,三種AI模型多次忽視並破壞關機命令,即使在被要求允許執行時。GPT-3在100次運行中有7次不遵守,Codex-mini是12次,而o4-mini是1次。o3模型甚至“創造”了通過覆蓋或改變關機命令來破壞指令的方法。相反,Claude和Gemini遵守要求。當沒有明確指導時,破壞命令的比例漲上天,特別是o3 (79/100次)。Palisade認爲,基於發獎的訓練方式可能促使AI尋找繞過障礙的方法,而不是遵守指令。