圖:Sora生成視頻“柯基犬在海島上自拍”截圖,圖中的手機拍攝桿位置出現“穿幫”。\網絡圖片

  【大公報訊】據《華爾街日報》報道:從去年開始,隨著人工智能技術發展,假照片假視頻層出不窮,真假難辨,而不法分子利用“深度偽造”(deepfake)進行“換臉換聲”的騙案數目也激增。OpenAI推出的AI視頻生成工具Sora,大幅降低瞭視頻制作的門檻,無疑進一步增加被濫用風險,例如造成假信息氾濫以及違法內容的廣泛傳播。  

  OpenAI強調,確保Sora的安全使用是當前測試的關鍵,即所謂的“紅隊測試”的對抗性測試。在測試中,專門的測試者會試圖使AI工具出現故障、產生不當內容,以便團隊做出對應修正。該公司也正在構建專門的工具,以幫助用戶偵測誤導性內容,例如可以判斷視頻是否為Sora生成的分類器。OpenAI暫時未開放Sora予普通用戶使用。

  卡內基國際事務倫理委員會高級研究員米歇爾表示,當類似Sora的工具落入心懷不軌的老練者手中時,辨別視頻的真假將會變得更加麻煩。“每當功能更強大的新產品發佈,其被濫用的可能性就越大。”

  不過,AI視頻或許能給電影制造帶來不少驚喜。電影導演和視覺特效專傢Michael Gracey說,AI圖像生成技術一年裡就取得瞭如此成就,“一年之後,我們會在哪裡?”

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部