圖:在網上平臺,有不少用人工智能翻唱經典歌曲的片段。

  

  【大公報訊】除瞭被徹底洗腦式的電騙案,AI“假聲”亦會成為騙徒犯案的工具。近期YouTube頻道上載不少AI“假聲”的影片,翻唱多位歌星的名曲,聲調幾可亂真,可見現時要假扮誰人的聲音並沒有難度。

  香港資訊科技商會榮譽會長方保僑提醒,AI“假聲”的電騙案將會盛行,市民更需要提高警覺。方保僑表示,騙徒利用偷錄瞭某人的聲音,經AI解讀及分析後,可從聲音樣本模擬發聲,模仿聲調作為犯罪的工具,讀出騙徒行騙的內容。他又稱,如騙徒已掌握受害人親友的聲音,受害人更易受騙,“如騙徒曾致電受害人的親人傾談,講瞭一大段說話,被騙徒偷錄下來,AI便會分析相關語調及聲調,再利用相關‘聲音’作出詐騙。”

  模仿受害者兒子聲音騙財

  方保僑又指市民遇不明來電務必小心,並需核實對方相關訊息的真偽,“很多時騙徒得知受害人對親人的安危十分著急,在心急的情況下,沒有即時核實。”他稱現時AI生成的聲音較“生硬”及“粗糙”,細心聆聽可以辨別,惟當受害人焦急,便較易誤墮陷阱。

  事實上,AI“假聲”電騙案已發生。一名騙徒三月致電一對加拿大夫婦,利用AI模仿其兒子的聲音,及後成功騙取2.1萬加元(約12萬港元)。騙徒在電話上利用以AI合成其兒子的“聲線”致電該對夫婦表示,“兒子”駕車撞死一名美國外交官,現身處監獄,急需金錢支付律師費。數小時後騙徒又再佯稱是其兒子代表律師致電,聲稱開庭前需要2.1萬加元。

  此外,去年十二月,臺灣警方首次破獲一個結合AI語音機械人行騙的詐騙集團,拘捕2人。當中最少40名受害人報警,損失合共1億元新臺幣(約2,527萬港元),其中一名六旬婦人被騙金額最高,達2,300萬元新臺幣(約581萬港元)。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部