圖:德斯特凡諾(右)接到語音克隆電話,騙徒聲稱綁架瞭她的大女兒(左)。\網絡圖片

  【大公報訊】綜合法新社、CNN報道:人工智能技術不斷更新,網絡詐騙案的手段也花樣百出。美國有騙徒使用網絡上幾可亂真的人工智能(AI)語音克隆工具,假冒受害者親朋好友騙錢。根據聯邦貿易委員會的數據,去年,美國人在冒名頂替詐騙中損失26億美元(約202.8億港元)。專傢表示,AI對人類最大的威脅,是模糊瞭真實和虛構的界線,讓詐騙犯利用廉價又有效的AI技術來散播假信息。

  AI普及後,電信詐騙犯隻需要在網上下載一個免費AI軟件,再利用某人幾秒鍾的聲音樣本,就能創造新的對白。總部位於美國的McAfee Labs上個月發佈報告,在一項針對美國等九個國傢共7000人的全球調查中,四分之一的人表示,他們自己或身邊的人經歷過AI語音克隆騙局。70%的受訪者表示,他們不確定自己能否“分辨出克隆聲音和真實聲音之間的區別”。

  Blackbird.AI行政總裁哈立德表示:“AI語音克隆現在與真實人聲幾乎無法區分,這讓騙徒能夠更有效地從受害者那裡獲取信息和資金。”哈立德說,通過一個簡短的音頻樣本,AI可以生成語音文本、郵件,甚至可以制作實時語音轉換器,詐騙者可以使用不同的口音、性別,模仿受害者親屬的說話方式,創造出令人深信不疑的假音頻。

  美國聯邦調查局(FBI)特工約翰遜表示,美國傢庭平均在每次虛假綁架騙局中損失11000美元(約8.58萬港元)。根據聯邦貿易委員會的數據,去年,美國人在冒名頂替詐騙中損失26億美元(約202.8億港元)。

  哭泣聲與女兒一模一樣

  1月20日下午,住在亞利桑那州的母親德斯特凡諾接到一通陌生來電,德斯特凡諾本想掛斷,但一想到15歲的大女兒佈麗安娜正在進行滑雪比賽訓練,德斯特凡諾不由擔心女兒是否出瞭意外,她接起電話,電話那頭傳來尖叫和哭泣聲,“媽媽!幫幫我!”德斯特凡諾後來接受采訪時回憶,她當時十分確信電話那頭是女兒的聲音,女孩連哭泣的音調都與佈麗安娜一模一樣,“我沒有一秒懷疑。”

  電話那頭很快傳來詐騙者的聲音,對方聲稱綁架瞭佈麗安娜,要求德斯特凡諾支付100萬美元贖金。德斯特凡諾手足無措,試圖說服對方降低贖金金額,並讓一旁的小女兒打給與佈麗安娜一起前往滑雪場的父親,但父女兩人一直杳無音信。好在旁邊的路人幫忙打電話報警,警方獲悉後判斷德斯特凡諾遭遇詐騙,佈麗安娜也在數分鍾後打電話向母親報平安,這才讓德斯特凡諾免於錢財損失。

  幾秒聲音樣本即可克隆

  美國聯邦官員表示,諸如此類的冒名頂替騙局已經存在多年,騙徒青睞聯系受害者的祖父母等親人,謊稱他們的孩子出事,借此詐騙錢財,綁架者通常會使用通用的尖叫錄音。但官員警告說,AI普及後,此類騙案正變得越來越難識破,因騙徒能夠輕而易舉克隆聲音,並創造“對白”。

  加州大學伯克萊分校計算機科學教授法裡德表示,AI在詐騙者手中被武器化,“一段不到一分鍾的音頻,就能創建一個相當完整的克隆語音,有些人甚至說隻需幾秒鍾就足夠瞭。”法裡德補充說,在AI軟件的幫助下,每月隻需5美元就能輕松實現語音克隆。不過,法裡德指出,據他所知當前版本的AI軟件無法通過克隆聲音來表達各種情緒,但不能完全排除已經出現更先進的技術。

  今年早些時候,AI創業公司ElevenLabs承認,其語音克隆工具可能被濫用於“惡意目的”。此前,有用戶利用該公司的軟件發佈瞭一段演員艾瑪華森閱讀希特勒自傳《我的奮鬥》的深度偽造音頻。

  風險投資公司Team8技術總監霍赫伯格說,人們很快無法再相信網絡上所見的一切,需要有新的技術來幫助確認網絡對面的到底是不是自己認識的人。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部