圖:AIGC帶來巨大發展機遇的同時,也衍生瞭知識產權保護、算法歧視、安全挑戰、倫理風險、環境風險等問題。

  推動AIGC(生成式人工智能)健康發展和規范應用,亟需各方協同努力,以促進市場潛力釋放。AIGC一方面為金融行業帶來瞭巨大的發展機遇,另一方面,知識產權保護、算法歧視、安全挑戰、倫理風險、環境風險等問題都制約瞭AIGC在金融行業的應用。中國亟需探索構建可持續人工智能生態的路徑。

  “我們總是高估未來兩年的技術改變,但低估未來10年的技術影響。”正如微軟創始人比爾.蓋茨所言,在下一個黃金十年,AI(人工智能)將進一步釋放歷次科技革命和產業變革積蓄的巨大能量。

  歐盟和美國等西方多數國傢都主張采用多元主體參與、協同共治的模式,人工智能治理從政府主導向“政府+市場”主導轉型。希望既加速人工智能產業發展,又同步推進監管規則的制定。

  2019年,歐盟發佈《可信賴人工智能道德準則》(以下簡稱《準則》),提出瞭實現可信賴人工智能全生命周期的框架。提出四項倫理準則:尊重人自主性、預防傷害、公平性和可解釋性。列出實現可信賴AI的七個關鍵條件:人的能動性和監督;技術穩健性和安全性;隱私和數據管理;透明度;多樣性、非歧視性和公平性;社會和環境福祉;問責。

  《準則》將“信任”與“可信賴”等術語置於文件的核心地位,這也是世界各國制定的人工智能倫理準則中廣泛使用的概念之一。2023年6月,歐洲議會又邁出瞭具有歷史意義的重要一步,通過《人工智能法案》草案,但距離完全生效可能還需數年時間,為未來的人工智能監管奠定瞭法律基礎。這一舉措讓外界看到瞭超越道德和法律的人工智能科技在歐洲迎來瞭一扇有法可管的大門。同時,歐洲也立下瞭全球人工智能監管的新標準。

  中美監管思路各異

  美國為瞭平衡創新與治理的需要,采取瞭較為寬松的“軟監管”。2020年1月,美國聯邦政府發佈瞭《人工智能應用的監管指南》,要求聯邦政府以減少人工智能技術應用的障礙和促進技術創新為目標。在治理主體上,美國成立瞭“人工智能國傢安全委員會”,由政府官員、科學傢、企業高管和學者等組成的多元治理主體。可以看出,美國不僅側重維護自身核心價值,而且更加強調對人工智能創新與發展的促進,避免一刀切式的過度幹預。其優先考慮不通過政策手段阻礙人工智能技術和產業發展,降低創新門檻和成本,高度重視為人工智能應用創建“安全港”、監管轄免等。

  歐美AI治理對於中國的金融機構和眾多產業提供瞭啟示。努力確保AI算法和模型具有透明度和可解釋性,使用戶和監管機構能夠理解決策的依據和過程,這有助於建立信任。另外,金融機構要積極參與國際合作,密切跟蹤技術前沿,科學、動態地制定和調整倫理規范。倡導發展“以人為本”的人工智能,共同參與制定倫理治理標準和規范。讓AI的發展符合社會倫理,為人類創造積極價值。

  在AIGC方面,中外監管思路存在差異。歐美國傢側重於從數據安全、數據保護和數據治理的角度進行監管;而中國則采取綜合治理的思路,強調權益保護、數據治理和內容治理等多個方面的監管。

  為瞭促進AIGC健康發展和規范應用,維護國傢安全和社會公共利益,保護公民、法人和其他組織的合法權益,2023年7月,國傢網信辦等七部門聯合發佈的《生成式人工智能服務管理暫行辦法》(簡稱“《辦法》”)於2023年8月15日起施行。這是國傢首次專門針對AIGC進行系統監管的文件,重點強調瞭AIGC產品訓練數據及生成內容的真實性,對技術發展與治理做出具體要求。

  《辦法》提出國傢堅持發展和安全並重、促進創新和依法治理相結合的原則,采取有效措施鼓勵AIGC創新發展,對AIGC服務實行包容審慎和分類分級監管,明確瞭提供和使用AIGC服務總體要求。明確瞭發展與安全並重、創新和依法治理相結合,將“發展”置於“安全”前、“創新”置於“治理”之前,還明確指出“鼓勵生成式人工智能技術在各行業、各領域的創新應用”等。相比此前的征求意見稿,正式辦法的基調從強監管、禦風險轉變為包容審慎、鼓勵發展,凸顯瞭中央對AIGC技術發展的支持。

  《辦法》被看作是一個重大的信號,體現瞭提前研判、提前介入、提前監管的思路。隨著監管法規的不斷完善,有望指引AIGC行業發展方向,促進行業長期健康發展。同時,政府、企業和社會各界也需要共同努力,加強合作與溝通,共同推動AIGC技術的創新和應用,為社會帶來更多的福祉和發展機會。

  完善制度規避風險

  在中國,金融機構開展AIGC合規發展和有效治理尤為重要。筆者認為共築可信生態的路徑,可從以下七個方面進行:

  1)“三駕馬車”共護數據安全。《網絡安全法》、《數據安全法》、《個人信息保護法》等“三駕馬車”構成瞭中國數據安全領域完整的基礎性法律體系。金融機構主體要遵守現行相關法律體系,以及征求意見稿等最新監管規定,建立健全內部監管制度。在訓練數據、數據清洗、數據出境等全流程中采取嚴格的數據安全措施,構建和完善合理的數據采集、使用和共享機制,防止數據洩露和濫用。

  2)建立算法模型審查機制。金融機構在AIGC產品上線前應主動進行事前審查,及時發現其運作程序、服務內容存在的問題,彌補外部監督的缺陷,使算法倫理問題可溯源可追責。借助決策樹、特征重要性、敏感性分析、原型選擇等算法解釋器,以一定的方式和程度向監管部門和公眾說明自動化決策的內在邏輯,履行透明度義務,回應公眾所關心的特定因素對算法決策的具體影響。

  3)加強AIGC技術研究和創新,持續改進應用。積極應用隱私計算、區塊鏈等新技術和新模型,創新算法保護和倫理判別技術手段。定期審核、評估、驗證生成合成類算法機制機理,持續評估人工智能系統的性能、合規性和風險。根據反饋結果,及時調整和改進系統,使模型應用與人類價值觀保持一致並遵循人類意圖。

  4)建立獨立倫理委員會或審查機制。探索人工智能倫理治理,基於風險分級和應用分類,采取政策指南、監管沙盒、試點、標準認證等多元化監管措施。加強對生成內容審查及內容過濾,避免基於種族、性別、年齡等因素造成的偏見和不公平現象,打造可信AIGC生態。

  5)建立健全應急處置制度。對人工智能系統的使用進行風險評估和管理,包括技術風險、操作風險和道德風險等方面。建立相應的風險管理框架和流程,定期開展應急演練,測試和評估安全應急預案的可行性和有效性。

  6)積極構建人才培養體系。加快高水平AIGC人才培養,打造領軍人才和創新團隊。佈局一批適應AIGC技術研究所需的科教資源和數字化資源平臺,促進各類創新要素優化聚集,深化產學研合作。

  7)廣泛開展國際交流合作。學習借鑒國際AIGC領域的先進經驗,與其他組織、學術界和政府機構進行合作,共享最佳實踐。參與行業標準制定,促進大模型綠色低碳發展。

  AIGC的誕生帶來瞭許多驚喜和創新,同時也引發瞭爭議和挑戰。面對這種新興技術,我們需要保持開放、包容和積極的態度,尋求法律和制度的創新來規避風險,實現可持續發展。AI是不能錯過的一次革命。麥肯錫公司預測,未來10年的科技進步,將超過之前100年的總和。AI作為新的電力,有望在未來幾年改變所有主流行業。守正創新行穩致遠,共築AIGC生態新范式,必將造福全社會。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部