AI 語音深偽詐騙,危及數百萬人 (2024-09-25 09:51:19)


草根影響力新視野(琪拉編譯)


英國一家銀行警告稱,數百萬人可能成為人工智慧假冒真人的聲音詐騙的受害者。Starling Bank(斯塔林銀行)是一家只提供線上服務的銀行,該銀行表示,詐騙者能夠利用人工智慧,從某人在網路上發布的影片等僅三秒的音訊中複製出該人的聲音。然後,詐騙者可以識別該人的朋友和家人,並使用人工智慧複製的聲音撥打電話索取金錢。此類詐騙有可能「讓數百萬人陷入困境」。


他們已經影響了數百人。該銀行上個月與 Mortar Research 對 3000 多名成年人進行的一項調查顯示,超過四分之一的受訪者表示,他們在過去 12 個月內成為了人工智慧語音騙局的目標。


調查也顯示,46% 的受訪者不知道這類詐騙的存在,8% 的受訪者會按照朋友或家人的要求匯出盡可能多的錢,即使他們認為這個電話看起來很奇怪。





圖片取自:(示意圖123rf)

該銀行首席資安長 Lisa Grahame 在新聞稿中表示:「人們經常在網路上發布包含自己聲音錄音的內容,卻沒有想到這會讓他們更容易受到詐欺者的攻擊。 」該銀行鼓勵人們與親人同意一個「安全短語」一個簡單、隨機的短語,易於記住,並且與其他密碼不同,可用於透過電話驗證他們的身份。


銀行建議不要透過文字共享安全短語,這可能會讓詐騙者更容易發現,但是,如果以這種方式共享,則應在其他人看到該訊息後將其刪除。隨著人工智慧越來越擅長模仿人類的聲音,人們越來越擔心它可能會透過幫助犯罪分子存取他們的銀行帳戶和傳播錯誤訊息等方式來傷害人們。


今年早些時候,生成式人工智慧聊天機器人 ChatGPT 的製造商 OpenAI 推出了其語音複製工具 Voice Engine,但當時並未向公眾開放,理由是「合成語音可能被濫用」。


今年五月,美國知名演員史嘉蕾·喬韓森 (Scarlett Johansson) 就表示將會起訴 OpenAI,因為它創造的語音助理聽起來就像 2013 年電影《她》中演員的表演,該片講述了一個男人愛上人工智慧的故事。


她說,OpenAI 試圖聘請她為 ChatGPT 的人工智慧助理配音,但她拒絕了,她繼續用聽起來相似的聲音繼續前進。如果約翰遜決定提起訴訟,她可能會在法庭上提出強有力且可信的主張,並指出過去發生的一長串案件可能會給世界領先的人工智慧公司之一帶來重大損失,並引發對該行業的質疑。


資料來源:https://edition.cnn.com


[不許轉載、公開播送或公開傳輸]

加密貨幣
比特幣BTC 99093.04 4,758.40 5.04%
以太幣ETH 3289.28 217.22 7.07%
瑞波幣XRP 1.46 0.36 32.45%
比特幣現金BCH 490.79 50.46 11.46%
萊特幣LTC 90.91 7.54 9.04%
卡達幣ADA 0.987710 0.19 23.41%
波場幣TRX 0.201326 0.01 3.30%
恆星幣XLM 0.344787 0.10 39.30%
投資訊息
相關網站
股市服務區
行動版 電腦版
系統合作: 精誠資訊股份有限公司
資訊提供: 精誠資訊股份有限公司
資料來源: 台灣證券交易所, 櫃買中心, 台灣期貨交易所
依證券主管機關規定,使用本網站股票、期貨等金融報價資訊之會員,務請詳細閱讀「資訊用戶權益暨使用同意聲明書」並建議會員使用本網站資訊, 在金融和投資等方面,能具有足夠知識及經驗以判斷投資的價值與風險,同時會員也同意本網站所提供之金融資訊, 係供參考,不能做為投資交易之依據;若引以進行交易時,仍應透過一般合法交易管道,並自行判斷市場價格與風險。
請遵守台灣證券交易所『交易資訊使用管理辦法』等交易資訊管理相關規定本資料僅供參考,所有資料以台灣證券交易所、櫃買中心公告為準。 因網路傳輸問題造成之資料更新延誤,精誠資訊不負交易損失責任。