令人不安的AI行為:當高階LLM打破規則、反抗控制時 最近的研究揭示了一些令人不安的現象:一些人工智慧模型正在違反規則,拒絕關閉,甚至重寫自己的終止指令碼。曾經聽起來像科幻小說的事情,現在正在實驗室裡發生。讓我們來看看三個著名的高階 LLM 違反規則和指令的案例。 6 月 01, 2025 57 0