OpenAI 和Deepmind員工警告AI有「嚴重風險」






據報導,OpenAI 和Deepmind員工表示,「AI公司有強大的財務誘因,避免有效的監督,」並進一步警告不受監管的AI帶來的風險,從錯誤訊息的傳播到獨立AI系統的喪失,以及現有不平等現象的加深,都可能導致「人類滅絕」。


編譯/黃竣凱




一群來自人工智慧(AI)公司OpenAI 和Google DeepMind的現任和前任員工,對AI帶來的風險表示擔憂。OpenAI 的 11 名現任和前任員工,及Google DeepMind 的一名現任和另一名前員工,共同在一封公開信中表示,AI公司的財務動機阻礙了有效的監管






吹哨者:警告AI有嚴重風險可能導致人類滅絕。 圖/ 123RF



AI公司員工的警告




據報導,這些員工表示,「AI公司有強大的財務誘因,避免有效的監督,」並進一步警告不受監管的AI帶來的風險,從錯誤訊息的傳播到獨立AI系統的喪失,以及現有不平等現象的加深,都可能導致「人類滅絕」。




更多新聞:黃仁勳:機器人將是AI下一波浪潮




AI公司有「大量非公開資訊」




現任和前任員工稱說,AI公司擁有「大量非公開資訊」,包括他們的技術可以做什麼、他們採取的安全措施的程度,及技術對不同類型傷害的風險等級,而他們「也了解這些技術帶來的嚴重風險,」但這些公司「目前只有微弱的義務需要與政府分享其中一些資訊,且沒有與民間社會分享,也不能依賴這些公司自願分享這些資訊。」




舉報系統的不足




此外,公開信中也詳細介紹了現任和前任員工,對AI產業舉報人保護不足的擔憂,並表示如果沒有有效的政府監督,員工在追究公司責任方面仍處於劣勢,並表示「廣泛的保密協議阻止我們表達我們的擔憂,普通的舉報人保護是不夠的,因為它們關注的是非法活動,而我們擔心許多尚未受到監管的風險。」




在信中,員工要求AI公司承諾不簽訂或執行不貶低協議;為現任和前任員工建立匿名流程,以便向公司董事會、監管機構和其他人表達擔憂,並支持公開批評的文化,而若是內部報告流程失敗,不得對公開舉報進行報復。




簽署人




簽署這封公開信的包括四名匿名 OpenAI 員工和七名前員工,包括 Daniel Kokotajlo、Jacob Hilton、William Saunders、Carroll Wainwright 和 Daniel Ziegler,以及曾在 Google DeepMind 工作的 Ramana Kumar 和目前在 Google DeepMind 工作的 Neel Nanda。此外,三位以推進AI領域而聞名的電腦科學家也簽署了這封信,包括「AI教父」Geoffrey Hinton、Yoshua Bengio和Stuart Russell。




對此,OpenAI 發言人表示,「鑑於這項技術的重要性,我們同意嚴格的辯論非常重要,將繼續與世界各地的政府、民間社會和其他社區進行接觸。」




參考資料:CNBCReuters



這篇文章 OpenAI 和Deepmind員工警告AI有「嚴重風險」 最早出現於 TechNice科技島-掌握科技與行銷最新動態