近日,國傢網信辦聯合國傢發展改革委、教育部、科技部、工業和信息化部、公安部、廣電總局公佈《生成式人工智能服務管理暫行辦法》(以下稱《辦法》),這充分體現瞭國傢對生成式人工智能發展和應用的高度重視,也標志著我國生成式人工智能治理邁出瞭堅實的一步。《辦法》堅持發展與安全並重、促進創新與依法治理相結合的原則,為生成式人工智能的健康發展和規范應用提供瞭制度“錨點”和實踐指引,在推動相關技術進步與產業落地的同時,確保生成式人工智能服務更好地造福人民。   近兩年,生成式人工智能大模型在內容生成、理解推理、多輪對話等方面達到超預期的高度,將為數字經濟蓬勃發展提供垂直化、場景化、個性化的應用工具,廣泛賦能電子商務、創意產業、金融服務、醫療健康等領域。但目前主流的生成式人工智能屬於“黑箱”模型,在應用中可能會產生有害言論、虛假信息、隱私泄露、偏見歧視等風險。發展可信安全的生成式人工智能已成為全球共識。發展與安全是一體兩翼、辯證統一的關系,安全為生成式人工智能發展提出規范要求,同時也是其被市場應用、社會接受的基礎。   《辦法》堅持發展與安全並重、創新與治理相結合的原則,對生成式人工智能服務實行包容審慎和分類分級監管。 一方面,圍繞應用、研發、基礎設施等多措並舉打造自主開放的創新生態,鼓勵生成式人工智能技術在各行業、各領域的創新應用,支持相關機構在技術創新、數據資源建設、轉化應用、風險防范等方面開展協作,鼓勵基礎技術的自主創新,平等互利開展國際交流與合作,推動生成式人工智能基礎設施和公共訓練數據資源平臺建設。 另一方面,構建起瞭鼓勵多方主體參與、貫穿生成式人工智能服務全流程的規范體系,對訓練數據處理、生成式人工智能服務規范做瞭相應要求,規定瞭安全評估、算法備案、投訴舉報等配套制度,明確瞭法律責任和發現違法內容的處置措施。《辦法》還對國傢有關主管部門的管理提出瞭要求,針對生成式人工智能的技術特點和服務特征,完善與創新發展相適應的科學監管方式,制定相應的分類分級監管規則或者指引。《辦法》為生成式人工智能健康有序發展奠定瞭堅實的制度基礎,也為大模型等新技術的監管做出瞭示范。   下一步,落實《辦法》精神和相關要求,需要業內科研機構和企業一起努力,在相關部門支持下,推進重點領域攻關,打造我國 生成式人工智能“發展”與“安全”的雙基座。 在發展基座方面,進一步研發並開源高質量的基礎模型,同時構建面向大模型研發與應用的全鏈條開源體系,貫穿數據、預訓練、微調、部署和評測各個環節,降低我國大模型研發和商用開發的門檻。 在安全基座方面,推進構建生成式人工智能高質量數據集,研發相關系列標準,建設生成式人工智能評測平臺,打造“數據、標準、評測”一體化的生成式人工智能大模型可信安全體系,為生成式人工智能健康發展和規范應用保駕護航。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部