圖:觀言察色 分辨AI“換裝術”
ChatGPT方興未艾,“AI孫燕姿”剛剛爆火,就在世人迎來“AI元年”之時,AI換臉這種新型騙術已經悄然出現。近日內蒙古包頭警方公佈,一男士遭遇騙子AI換臉冒充好友,結果10分鍾淺聊,就被騙走430萬元(人民幣,下同)。騙術之新、數額之巨,以及防不勝防的狀況,都讓人瞠目結舌。有專傢提醒公眾,盡量不要在公開平臺大量曬出個人照片和視頻,以免給犯罪分子盜用冒充身份。\大公報記者 張寶峰北京報道
在包頭案中,受害人郭先生的好友突然通過微信視頻聯系他,稱自己的朋友在外地競標,需要430萬元保證金,想借用郭先生公司的賬戶轉賬。基於對好友的信任,加上已經視頻聊天“核實”瞭身份,郭先生在10分鍾內,先後分兩筆把430萬元轉到瞭對方的銀行賬戶上。然而事後,郭先生撥打好友電話才得知被騙。原來騙子通過AI換臉和擬聲技術,佯裝好友對其實施詐騙。“當時是給我打瞭視頻的,我在視頻中也確認瞭面孔和聲音,所以才放松瞭戒備。”郭先生事後說。
肆虐全球 上當比率近100%
事實上,郭先生的遭遇並非個案,從中國內地到歐美各國,形形色色的AI換臉騙案紛紛出現,且不少都是如郭先生案例般涉及上百萬巨額的詐騙案例。今年5月,湖北網警巡查執法發佈消息稱,AI技術改變瞭詐騙手段,而新騙局來襲後,詐騙成功率竟接近100%。
據瞭解,在AI換臉的騙局中,犯罪分子會先以各種手段套取擬冒充對象的聲音、臉容資料作為合成的素材,如通過騷擾電話錄音等來提取某人聲音,又或是在社交平臺上獲取公開的相片,甚至是直接駭入冒充對象的手機或社交賬號。除瞭事先制作AI換臉視頻播放,有的軟件還可以實時捕捉替換人臉,並且直接接替攝像頭,讓騙徒透過視頻聊天獲取受害人信任,實施詐騙。
在有效監管尚未及時跟進的背景下,各種圍繞AI技術帶來的新問題甚至犯罪行為,已經成為業內外不得不正視的熱點話題。清華大學人工智能研究院等部門發佈的《深度合成十大趨勢報告(2022)》顯示,創作者在互聯網平臺中發佈的深度合成內容的數量高速增長,以視頻為例,2021年新發佈的深度合成視頻的數量,較2017年已增長10倍以上。
專傢:遠程轉賬務必多重驗證
對此,中國互聯網協會發出公告提示,伴隨著深度合成技術的開放開源,深度合成產品和服務逐漸增多,利用AI換臉、換聲等虛假音視頻進行詐騙、誹謗的違法行為屢見不鮮。
為瞭保護好自己的“錢袋子”,用戶在進行遠程轉賬務時,必須進行多重驗證。如果有人自稱傢人、朋友、老師、領導以各種方式和理由誘導你轉賬匯款,務必第一時間提高警惕。
北京民商事律師李斌25日則對大公報表示,其實公眾更應該將這種保護與防范前置化,也就是保管好自己的圖像和視頻。比如,盡量不要在公開平臺大量曬出個人照片和視頻,以免給犯罪分子以可乘之機。另外,在社會上辦理業務或者拍攝照片、視頻時,一定要註意及時收回或徹底刪除底版,以免被他人濫用。
發表評論 取消回复