OpenAI公司開發的聊天機器人ChatGPT迅速崛起,吸引大批擁躉的同時,也引來瞭包括谷歌公司的巴德聊天機器人在內的多個競爭對手。圖為公共教育學校媒體服務組織召開的關於聊天機器人ChatGPT的研討會現場(資料照片)。

  ◎本報記者 劉 霞

  美國《國會山》網站在近日的報道中指出,ChatGPT這類生成式人工智能(AI)的爆炸式增長,以及由此帶來的一些諸如虛假信息泛濫、偏見、改變勞動力結構等混亂,引發瞭美國聯邦政府的擔憂,立法者和監管機構希望采取切實行動,消弭這些擔憂。

  引發兩大關鍵問題

  《國會山》網站報道稱,AI的發展可能會引發兩大關鍵問題。

  一方面,最近生成式AI工具的興起帶來瞭與虛假信息傳播有關的問題。另一方面,為自動化系統提供動力的AI可能會導致歧視。

  英國《新科學傢》雜志也指出,ChatGPT和其他聊天機器人經常出現事實性錯誤,引用完全虛構的事件或文章,在案例中編造性騷擾醜聞、誣告真人等。ChatGPT的使用也導致瞭數據隱私醜聞,涉及公司機密數據的泄露。另外,AI生成的圖像、音頻甚至視頻也可能導致大規模的“深度造假”信息,美國前總統特朗普被捕和教皇方濟各穿著時尚白色羽絨服的虛假AI合成照片就證明瞭這一點。

  加強執法呼聲高漲

  美國聯邦貿易委員會、司法部民權司、消費者金融保護局和平等就業機會委員會(EEOC)近日發表瞭一份聯合聲明稱,鑒於AI越來越多地用於從住房到醫療保健在內的一系列服務,他們承諾加強現有法律的執行強度,包括旨在解決AI可能會出現的歧視問題,並制定關於發展規則的新法規。

  EEOC主席夏洛特·伯羅斯表示,包括AI在內的先進技術的使用必須符合聯邦法律。

  當然,這些機構的聯合聲明主要集中於使用AI的自動化系統,而不是像ChatGPT這樣的生成式AI。

  《國會山》網站在報道中指出,即便如此,隨著ChatGPT等聊天機器人人氣飆升,谷歌和其他公司也不斷推出與之競爭的新產品,此外,包括特斯拉和推特首席執行官埃隆·馬斯克等在內的一批企業傢也競相湧入該行業,由此可能引發的喧嘩與騷動,也凸顯瞭政策制定者迫切需要采取相關措施。

  要應對AI帶來的風險,美國國會將權衡制定新法規,各機構也應加大執行現有法律的力度。因為即使在現有法律適用的地方,由於AI系統的工作方式,也可能很難執行這些法律。例如,算法招聘工具可能會導致歧視,但員工很難知道自己是否受到瞭系統的歧視。因此各機構需要解決的問題不僅在於如何應用法律,還要考慮如何應對執法過程中帶來的挑戰,以及瞭解這些AI系統對現實世界將產生怎樣的影響等等。

  負責民權事務的助理司法部部長克裡斯汀·克拉克也強調稱,在當今社會出現的各種歧視問題上,AI構成瞭很大的威脅,這些問題需要政策制定者和其他人進行更深入的研究和審查。

  安全管理勢在必行

  美國參議員本月早些時候公佈瞭一項提案,提出將為AI監管建立一個框架,旨在提高透明度並加強問責。除此之外,立法者還準備采取行動,就AI技術興起的相關風險向行業施壓。

  參議院情報委員會最近致信ChatGPT的開發商OpenAI、元宇宙平臺公司、谷歌、Anthropic和微軟等科技公司首席執行官,詢問他們在開發大規模AI模型時如何應對安全風險。

  信中寫道,隨著AI在大部分領域越來越多地使用,以及大型語言模型有可能穩步集成到從醫療保健到金融部門的一系列現有系統中,迫切需要強調AI使用過程中的安全性問題。

  針對一些參議員提出的如何利用AI等問題,美國消費者技術協會的一位發言人表示,該協會一直在與其成員“為AI政策、標準和框架制定作出貢獻”。

  美國軟件聯盟負責美國政府關系的副總裁克雷格·奧爾佈賴特則表示,國會可以要求公司制訂風險管理計劃,對AI的高風險使用進行風險評估,並定義何為高風險案例,而公司則需要開展影響評估和設計評估,以確保他們做正確的事。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部