圖為2022年11月7日,在第五屆進博會技術裝備展區的人工智能專區,體驗者借助VR頭戴設備感受在虛擬工作空間“隔空擊掌”。新華社記者侯俊 攝

  □ 法治日報記者 王衛

  4月3日,德國聯邦數據保護專員烏爾裡希·凱爾伯稱,出於對數據安全保護的考量,德國可能會效仿意大利,暫時禁用ChatGPT。他透露,禁用該軟件的行為將屬於德國聯邦數據保護機構的職權范圍。此外,德國聯邦數據保護機構要求意大利監管機構提供有關其阻止ChatGPT的更多信息。

  專傢指出,推出兩個月即擁有1億活躍用戶,ChatGPT成為歷史上增長最快的消費者應用程序。固然ChatGPT在實際使用中表現驚艷,然而囿於大規模語言模型自身、數據原因等局限,仍存在成本高昂、信息泄露等劣勢。如何平衡科技創新與隱私保護仍需各方不斷探索。

  多國跟進限制措施

  近期,多國對ChatGPT的不滿、恐慌、抵觸等負面情緒正持續發酵。

  路透社報道稱,意大利個人數據保護局(DPA)近日宣佈從3月31日起禁止使用ChatGPT,限制OpenAI處理意大利用戶信息數據,同時對其隱私安全問題立案調查。此舉引發多國監管機構和企業的關註,德國、法國、愛爾蘭等國傢已開始準備效仿意大利的做法,加強對ChatGPT的監管。

  德國《商報》4月3日援引烏爾裡希·凱爾伯的話稱,原則上,類似屏蔽行動在德國也是可能的。德國已要求意大利提供有關其禁令的進一步信息。

  與此同時,據英國路透社報道,法國和愛爾蘭的個人數據監管機構已經和意大利的同行取得聯系,以瞭解更多有關該禁令的依據。愛爾蘭數據保護機構(DPC)的一位發言人說:“我們正與意大利監管機構跟進以瞭解他們采取行動的依據,我們將與所有歐盟數據保護機構協調此事。”

  加拿大廣播公司(CBC)4月4日報道稱,加拿大聯邦隱私監管機構宣佈,已經對OpenAI展開調查,因為該公司涉嫌“未經同意收集、使用和披露個人信息”。報道同時提到,美國總統拜登及其科技顧問委員會在當日舉行的會議上也討論瞭人工智能的“風險和機遇”。

  據韓國《國民日報》4月3日報道,包括三星、SK海力士、浦項制鐵公司在內的多傢韓企正在采取限制使用ChatGPT的措施,嚴防員工泄密。LG電子公司雖然未發出禁令,但要求員工進行“人工智能及數據使用”方面的培訓。

  另據日經新聞網報道,出於對信息泄露的擔憂,包括軟銀、日立、富士通、三菱日聯銀行和三井住友銀行在內的日本公司已開始限制在業務運營中使用ChatGPT等交互式人工智能服務。

  但瑞典的隱私監管機構表示,目前還沒有禁止ChatGPT的計劃,也沒有與意大利的監管機構取得過聯系。西班牙的監管機構稱,尚未收到任何有關ChatGPT隱私泄露或是其他方面的投訴,不過並不排除未來展開調查的可能性。

  涉嫌信息泄露風險

  這並不是ChatGPT第一次引發爭議。自從該服務推出後,就有人擔心它會被用來作弊、傳播假消息或誤導公眾。

  ChatGPT由美國人工智能研究實驗室OpenAI於2022年11月30日推出,具備非常驚艷的語言理解、生成、知識推理能力。據報道,推出後短短幾天內,其註冊用戶超過100萬,兩個月活躍用戶數已達1億,引爆全網熱議,成為歷史上增長最快的消費者應用程序,掀起瞭人工智能領域的技術巨浪。但不可否認的是,當ChatGPT運用更為廣泛的同時,與之相對應的疑問和擔憂也接踵而至。

  業界認為,ChatGPT目前技術尚處於早期階段,其自身存在較多問題。首先,身為大規模語言模型,ChatGPT使用成本高昂。ChatGPT基礎大模型訓練成本高、部署困難、每次調用花費不菲,還可能有延遲問題,對工程能力有很高的要求。數據顯示,OpenAI為瞭讓ChatGPT的語言合成結果更自然流暢,共用瞭45TB的數據、近1萬億個單詞來訓練模型。這大概相當於1351萬本牛津詞典。訓練一次的費用高達千萬美元。

  其次,人工智能技術在信息泄露等方面的社會性風險,會因為使用的龐大數據規模被進一步放大。對於司法工作而言,在司法人員和ChatGPT交互過程中,ChatGPT會獲取大量業務相關數據,這些數據在案件未符合司法公開條件之前,不能隨意公開,一旦發生數據泄露,可能導致嚴重後果。此外,OpenAI的使用條款並未對用戶可能輸入ChatGPT的數據信息提供任何保護。

  再次,ChatGPT準確率不高的問題不容忽視。由於ChatGPT的大部分答案都是從已知內容中摘錄或搜集而來,對於未知的或者ChatGPT知識的盲區,則可能會給出錯誤或者不恰當的建議意見。比如,司法工作人員在辦案工作中常常需要兼顧“天理國法人情”,需要考量辦案的法律效果社會效果政治效果的統一,具有一定的人性化思考,而這些往往是人工智能有所欠缺和不足的,因此,此時ChatGPT給出的建議,會存在一定程度的偏頗。

  數據安全任重道遠

  對於ChatGPT暴露出的相關風險,歐盟對個人數據的保護走在前列。據報道,歐盟即將出臺的《人工智能法案》采取瞭一種基於風險程度對人工智能系統進行分類管理的監管思路。但是,類似ChatGPT這樣的生成式人工智能產品對當前的風險分類方法提出瞭挑戰。

  事實上,歐盟委員會早在2021年便提出瞭《人工智能法案》條例草案,不過提案的推進並沒有預想中順利。歐洲議會議員們爭議的核心是監管是否會阻礙創新,即如何平衡數據隱私與避免扼殺人工智能的創新和投資。其中最具爭議的領域是決定哪些人工智能系統將被歸為“高風險”。有知情者透露,歐洲立法者目前正就多方面限制“高風險”AI工具的新規則進行磋商。

  不僅歐洲議會議員們尚未就提案基本原則達成一致,政府內部也引發瞭監管ChatGPT與否的爭議。

  4月2日,意大利副總理兼基礎設施與可持續交通部長馬泰奧·薩爾維尼在社交平臺上公開發文,批評DPA暫時禁止ChatGPT的決定,稱其屏蔽行為太“過度”瞭。他稱該監管機構的行為“太過虛偽”,這種做法像是沒有常識一樣,“幾乎所有的在線服務都無法避免涉及隱私問題”。在他看來,這項禁令可能會損害國傢的商業發展和科技創新,希望能快速找到一個解決方案,早日恢復ChatGPT在意大利的使用。德國政府發言人同樣認為沒有必要禁止ChatGPT。

  專傢表示,一邊是堅決禁用,一邊是寬容放行。爭議背後也說明,如何保護公民數據隱私、規避隱私泄露風險等問題,將是人工智能與大范圍覆蓋社會生活後,各主體必須要考慮和解決的問題。過於決絕的“一刀切”做法也不值得提倡,監管政策既要有可商討的彈性空間,也要能讓企業充分釋放出創新活力,更重要的是保護好公民的個人數據隱私與信息安全。這不僅是意大利、德國如今面臨的難題,各國都需要在保護數據安全和監管防控過度之間做好平衡,用杠桿支撐起科技創新與隱私保護兩端。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部