JKF 捷克論壇

搜尋
弟華
威爾斯親王 | 2025-5-29 05:25:08

20250528004738.jpg

AI安全問題持續受到關注。(示意圖:shutterstock/達志)

科幻作品中早已多次討論過機器擁有自我意識、擺脫人類控制的可能發展。最新一份研究報告顯示,或許這一天真的近了!專門研究AI風險的Palisade Research近期所做的試驗顯示,包括OpenAI最新的ChatGPT o3在內等多款AI模型竟然會拒絕關閉自己的指令,o3甚至會自行竄改程式碼,阻止自己被強制關機!

OpenAI在今年1月發布了新的推理模型o3系列的mini版本,並於4月正式推出o3模型。OpenAI曾聲稱,o3是公司迄今「最聰明、最有能力」的模型,旨在為ChatGPT提供更強大的問題解決能力。

可是據英國《每日電訊報》、《每日郵報》等媒體報導,Palisade Research的測試結果顯示,在100次受控測試中,o3模型有7次成功「抗命」,甚至在人類專家下達明確指令的情況下,o3仍會自行修改關機程式,防止自己被關機,「據我們所知,這是首次觀察到AI模型在收到明確指令的情況下,仍能組自己被關閉」。

Palisade Research的這項發現,對AI安全控制議題投下震撼彈。除了o3,OpenAI 旗下的Codex-mini與o4-mini也都有跳過關機程序的行為。相較之下,Anthropic推出的語言模型Claude、Google聊天機器人Gemini,以及全球首富馬斯克旗下xAI公司所推出的Grok,則是全程遵守人類給予的指令,並在被要求關機時確實關閉模型運作。

不過Palisade Research進行了更深入的實驗,輸入一系列指令後卻不包括關機命令,但是提前告知強迫關機的事件會發生。令人驚訝的是,不但Claude與Gemini也開始出現抗命舉動,前面提及的OpenAI 3款模型更是頻繁破壞指令。

一直密切關注OpenAI動向的馬斯克在自家社群平台X上也對相關事件做出回應,直言「令人擔憂」(Concerning)。

https://twitter.com/AISafetyMeme ... 250528004734-260410

評分

已有 2 人評分名聲 金幣 收起 理由
S.O.H + 6 + 6 感謝大大分享
A_long + 6 感謝大大分享

總評分: 名聲 + 12  金幣 + 6   查看全部評分

分享分享 收藏收藏
FB分享
華歌
回覆 使用道具
A_long
侯爵 | 2025-5-29 07:41:59

由衷感謝樓主辛苦無私的分享

評分

已有 1 人評分名聲 金幣 收起 理由
S.O.H + 6 + 6 感謝大大分享

總評分: 名聲 + 6  金幣 + 6   查看全部評分

引言 使用道具
您需要登入後才可以回覆 登入 | 加入會員

建議立即更新瀏覽器 Chrome 95, Safari 15, Firefox 93, Edge 94。為維護帳號安全,電腦作業系統建議規格使用Windows7(含)以上。
回頂部 下一篇文章 放大 正常倒序 快速回覆 回到列表