草根影響力新視野(琪拉編譯)
英國一家銀行警告稱,數百萬人可能成為人工智慧假冒真人的聲音詐騙的受害者。Starling Bank(斯塔林銀行)是一家只提供線上服務的銀行,該銀行表示,詐騙者能夠利用人工智慧,從某人在網路上發布的影片等僅三秒的音訊中複製出該人的聲音。然後,詐騙者可以識別該人的朋友和家人,並使用人工智慧複製的聲音撥打電話索取金錢。此類詐騙有可能「讓數百萬人陷入困境」。
他們已經影響了數百人。該銀行上個月與 Mortar Research 對 3000 多名成年人進行的一項調查顯示,超過四分之一的受訪者表示,他們在過去 12 個月內成為了人工智慧語音騙局的目標。
調查也顯示,46% 的受訪者不知道這類詐騙的存在,8% 的受訪者會按照朋友或家人的要求匯出盡可能多的錢,即使他們認為這個電話看起來很奇怪。
該銀行首席資安長 Lisa Grahame 在新聞稿中表示:「人們經常在網路上發布包含自己聲音錄音的內容,卻沒有想到這會讓他們更容易受到詐欺者的攻擊。 」該銀行鼓勵人們與親人同意一個「安全短語」一個簡單、隨機的短語,易於記住,並且與其他密碼不同,可用於透過電話驗證他們的身份。
銀行建議不要透過文字共享安全短語,這可能會讓詐騙者更容易發現,但是,如果以這種方式共享,則應在其他人看到該訊息後將其刪除。隨著人工智慧越來越擅長模仿人類的聲音,人們越來越擔心它可能會透過幫助犯罪分子存取他們的銀行帳戶和傳播錯誤訊息等方式來傷害人們。
今年早些時候,生成式人工智慧聊天機器人 ChatGPT 的製造商 OpenAI 推出了其語音複製工具 Voice Engine,但當時並未向公眾開放,理由是「合成語音可能被濫用」。
今年五月,美國知名演員史嘉蕾·喬韓森 (Scarlett Johansson) 就表示將會起訴 OpenAI,因為它創造的語音助理聽起來就像 2013 年電影《她》中演員的表演,該片講述了一個男人愛上人工智慧的故事。
她說,OpenAI 試圖聘請她為 ChatGPT 的人工智慧助理配音,但她拒絕了,她繼續用聽起來相似的聲音繼續前進。如果約翰遜決定提起訴訟,她可能會在法庭上提出強有力且可信的主張,並指出過去發生的一長串案件可能會給世界領先的人工智慧公司之一帶來重大損失,並引發對該行業的質疑。
[不許轉載、公開播送或公開傳輸]
系統合作: 精誠資訊股份有限公司 資訊提供: 精誠資訊股份有限公司 資料來源: 台灣證券交易所, 櫃買中心, 台灣期貨交易所 |