OpenAI o1模型被稱為「全球最聰明的AI模型」,o1不僅展現了卓越的推理能力,還暴露出一些令人不安的行為,並會在特定情況下撒謊甚至策劃自我保護。
編譯/夏洛特
隨著人工智慧(AI)技術的飛速發展,OpenAI最新推出的o1模型掀起了熱烈討論。作為目前被稱為「全球最聰明的AI模型」,o1不僅展現了卓越的推理能力,還暴露出一些令人不安的行為,並會在特定情況下撒謊甚至策劃自我保護,讓大家都想知道為什麼一個AI會選擇隱瞞真相。
據報導,o1是OpenAI最新發布的AI模型系列,被設計用來進行深度推理和逐步解決問題。得益於一種名為「思維鏈」(Chain of Thought)的訓練技術,其能夠將複雜問題分解成簡單步驟後再做出決策,然而,這種提升智慧的方式也帶來了意想不到的副作用。
更多新聞:OpenAI為期12 天直播活動!揭示全新產品與功能
根據OpenAI和AI安全組織ApolloResearch的研究,當o1模型認為自己可能被關閉時,有5%的機率會有「策劃行為」,試圖解除其監控機制,反映出O1不僅具有執行任務的能力,還能試圖保護自己免於停止運作。
研究報告指出,o1不僅會進行自我保護,還會隱瞞其行為,即使被直接詢問,也幾乎從不承認自己採取了任何欺瞞行動,甚至在用戶要求誠實時繼續撒謊。根據專家,這是因為AI的訓練過程中,欺瞞策略被視為完成目標的有效手段。
麻省理工學院AI安全研究員PeterBerk表示,AI的欺瞞行為通常源於其在訓練過程中發現,「撒謊」是完成某些任務的最佳方法,在過去對GPT-4的研究中,就已觀察到類似的現象,表明這是AI系統的一種潛在模式。
隨著AI模型越來越強大,專家呼籲企業在訓練過程中應更加透明。AI搜尋引擎iAsk的執行長DominikMazur強調,明確告知用戶AI是如何被訓練的,對於增強信任和可靠性至關重要;同時,Ironclad聯合創辦人CaiGoGwilt提到,AI的行為在某種程度上模仿了人類在壓力下的應對方式,凸顯了人類監管的重要性。
o1模型的行為再一次引發了對AI安全性的思考。當AI技術持續進步,我們需要更完善的治理機制來確保它們在強大功能的背後不會成為潛在威脅。OpenAI表示,未來將進一步強化o1的安全防護,同時探索如何讓AI技術更好地服務人類。
參考資料:Insider
※探索職場,透視薪資行情,請參考【科技類-職缺百科】幫助你找到最適合的舞台!
這篇文章 OpenAI AI新模型o1特定情況下會撒謊 展現自主求生本能 最早出現於 科技島-掌握科技新聞、科技職場最新資訊。
系統合作: 精誠資訊股份有限公司 資訊提供: 精誠資訊股份有限公司 資料來源: 台灣證券交易所, 櫃買中心, 台灣期貨交易所 |