左圖:阿爾特曼儼然成為AI代言人。圖為他5月26日在巴黎演講。\法新社;右圖:“AI教父”辛頓簽署聯名信,警告AI給人類帶來滅絕風險。\路透社

  【大公報訊】綜合BBC、路透社報道:5月30日,包括OpenAI行政總裁阿爾特曼、有“AI教父”之稱的辛頓等350多名人工智能(AI)領域的行業高管、專傢和教授共同簽署瞭一封公開信,他們在信中警告稱,AI可能給人類帶來滅絕風險,其嚴重程度可以與核戰爭、流行病相提並論。

  這封信隻有一句話:“減輕AI帶來的滅絕風險,應該與流行病和核戰爭等其他社會規模的風險一起,成為全球優先事項。”該封聯署信發表在總部位於美國的非營利組織人工智能安全中心(CAIS)的網站上,簽署者除瞭阿爾特曼和辛頓外,還包括DeepMind首席執行官Demis Hassabis、Anthropic首席執行官Dario Amodei以及微軟和谷歌的高管等。

  CAIS的網站上列出AI可能造成的幾種災難場景,如AI被用來制造生化武器;AI生成的錯誤信息破壞社會穩定及集體決策;AI的力量會越來越集中在少數人手中;人類過度依賴AI,失去獨立生存能力等。

  部分專傢認為誇大問題

  Meta首席AI科學傢楊立昆(Yann LeCun)表示,CAIS發表的公開信對於人工智能威脅的描述過於誇大。還有專傢認為,與其擔心AI是否會消滅人類這樣不現實的問題,不如關註AI造成的系統性偏見等已經出現的問題。普林斯頓大學的計算機科學傢納拉亞南表示:“AI目前還遠沒有足夠的能力讓這些風險(消滅人類)成為現實。這封信分散瞭人們對AI現實危害的註意力。”

  牛津大學AI倫理研究所高級研究員雷尼爾裡斯說:“AI的進步將導致帶有偏見、歧視性、排他性或其他不公平的自動化決策范圍擴大。”她表示,AI將“推動錯誤信息的數量和傳播速度呈指數增長,破壞現實世界,削弱公眾信任並加劇不平等,特別是對於那些仍處於數字鴻溝弱勢一方的人”。雷尼爾裡斯認為,許多AI工具本質上是“搭便車”,是接受瞭人類創造的內容、文本、藝術和音樂的培訓後,生成的模仿性內容,而這一過程“將巨量財富和權力從公共領域轉移向少數私人實體”。

  被指阻礙後來者競爭

  5月22日發表的一篇博客文章中,OpenAI強調世界需要“AI版國際原子能機構”,用以監管AI。5月16日,阿爾特曼首次出席美國國會聽證會。他在會上發出警告,AI將以不可預測的方式改變社會,甚至給世界帶來“嚴重危害”,因此監管至關重要。阿爾特曼建議美國政府成立監管機構,向人工智能公司發放牌照,建立一套安全準則規范AI模型,以及設立國際組織為AI制定標準。

  在聊天機器人ChatGPT風靡全球後,阿爾特曼儼然成為AI代言人。阿爾特曼6月1日將與歐盟執委會主席馮德萊恩會面,下月將與歐盟工業主管佈雷頓會面。有網友認為,OpenAI積極呼籲制定規則,是為瞭控制競爭,讓監管機構捕獲並鎖定後來者,OpenAI便可以成為市場上最大玩傢。

  3月28日,美國非牟利組織“未來生命研究所”牽頭發表公開信,呼籲停止快速開發先進AI系統,至少要暫停半年,Tesla行政總裁馬斯克等逾千名科技界人士聯署。公開信中寫道,廣泛研究表明AI系統可能對人類構成深遠風險,隻有當確保強大的AI系統的效果是積極的、風險是可控的才能繼續開發。有網友質疑,簽署公開信的專傢是為瞭阻礙OpenAI研發更先進的GPT-5,以免自己落後太多。

  事實上,馬斯克簽署公開信後不久,就被曝光耗資數千萬美元購買約1萬個GPU(圖形處理器),用於推特的兩個數據中心之一。3月,馬斯克還招攬瞭來自Alphabet旗下公司DeepMind的兩名AI工程師加入推特。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部