央視網消息:2022年底,以ChatGPT為代表的人工智能大模型面世,人工智能技術在世界范圍內引發新一輪高度關註,但是隨著“AI侵權”“AI換臉詐騙”“AI謠言”等諸多問題相繼出現,“如何規范人工智能技術應用”“怎麼兼顧創新發展與倫理規范”等成為目前人們關註的焦點。昨天(6月26日),在山東曲阜召開的世界互聯網大會數字文明尼山對話上,與會專傢和代表一致認為,應加強人工智能發展的潛在風險的研判和防范,相關領域立法提速,確保人工智能安全可信可控。

昨天上午,世界互聯網大會數字文明“尼山對話”主論壇的第一個重要議題就是“構建安全可信的人工智能”。與會專傢認為,人工智能在近些年得到瞭快速發展和普及應用,它的巨大潛力被迅速挖掘釋放的同時,對它的潛在風險也應保持高度警惕。

中國科技大學公共事務學院網絡空間安全學院教授 左曉棟:人工智能的風險和傳統的風險相比,它有一些獨特的特點。比如說人工智能它是高度自主智能的,它是要極大地依賴數據的,而且這裡面還有算法黑箱的問題,還有算法不可解釋的問題,這些都使得人工智能的風險很難預測,而且大量的是未知事物。

與會代表認為,相關科研機構和科技企業在人工智能系統設計之初就要充分考慮安全、可控的風險,隻有這個前提下,人工智能的創新發展才能可持續。

此外,與會代表表示,我國應加快建立人工智能領域相關法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部