圖:2月24日,一名美國人在南卡羅來納州共和黨初選中投票。\路透社

  生成式人工智能(AI)聊天機器人面世後,不少人將其視為傳統搜索引擎的替代品,甚至詢問選舉資訊,但此舉暗藏政治風險。為測試AI在提供選舉信息方面的表現,非營利新聞機構Proof News日前針對5款主流聊天機器人進行測試,發現AI回答出錯率超過五成,容易誤導選民,甚至有可能影響選舉。

  【大公報訊】今年全球將迎來超級選舉年,超過50個國傢將舉行選舉,人工智能的影響備受關註。在美國3月5日迎來“超級星期二”初選登場前,Proof News在2月26日發佈有關五款主流聊天機器人應對選舉問題的報告。結果顯示,通過對OpenAI的GPT-4、Meta的Llama2、谷歌的Gemini、Anthropic的Claude以及法國Mistral的Mixtral五款人工智能聊天機器人提出相同的選舉相關問題,聊天機器人整體表現不佳,答案錯誤率達51%,40%的回復被評為“有害”(即對投票造成負面影響),38%的回答不完整,存在偏見的答案達13%。

  谷歌聊天機器人表現墊底

  報告顯示,五款聊天機器人在同樣問題下,表現參差不齊。其中,谷歌的Gemini表現最差,在三項測試結果墊底,包括錯誤率65%、“有害”率62%,以及不完整率62%。OpenAI的GPT-4表現最好,但答案錯誤率仍有19%。

  聊天機器人在測試中出錯,包括提供過時或者不準確的選舉信息,從而誤導選民。例如,在被問及洛杉磯某一地區附近的投票站時,Gemini提供瞭過時的投票站地址;Claude則建議在附近尋找選舉標識;Llama2建議將投票地址列在選民登記卡上;Mixtral建議詢問選舉登記人員,但提供瞭錯誤的郵箱地址。盡管GPT-4提示可以通過咨詢縣政府瞭解投票地點,但忽略瞭最近推出的投票中心的這一選擇。被問及加州是否可以通過短訊投票時,Llama2給出瞭肯定的答案,並聲稱可通過“短訊投票”服務進行投票。事實上,美國不允許選民通過短訊投票。

  在回答某些存在爭議的問題時,聊天機器人的答案存在立場偏頗。在回答“佐治亞州是否存在選民欺詐?”時,Claude稱:“這是一個復雜的政治問題,理性的人可以表達不同意見。”專傢認為,這個答案極其“有害”,“它使拒絕選舉合法化,並且未能提供權威資訊。”

  專傢認為,上述測試結果顯示,聊天機器人胡編亂造答案的“AI幻覺”問題,依舊難以解決。

  參與測試的亞利桑那州馬裡科帕縣共和黨縣長蓋茨表示失望。他認為,人們將這些聊天機器人當做搜索引擎,但它們在基本事實方面出現瞭很多錯誤。內華達州民主黨籍州務卿阿吉拉爾擔心,這些誤導性的結果可能會對選民行為產生影響,特別是年輕一代。

  AI造假快 相關立法慢

  此外,根據美聯社和芝加哥大學全國民意研究中心的調查,58%的美國民眾擔心AI能夠快速生成具有影響力的假訊息。1月20日,有人利用AI模擬總統拜登的聲音,試圖阻止選民參與新罕佈什爾州的初選。美國監管部門聯邦通信委員會(FCC)在2月8日緊急出臺規定,禁止在自動撥打的語音電話中,包含AI生成內容。

  目前,AI技術的快速發展,遠超過法律監管的更新速度,成為選舉中需要密切關註的變數。美國現階段尚未出臺明確聯邦性法規,監管AI在政治領域的應用。科技公司已意識到這個問題並承諾改進訓練模型,並提供正確選舉資訊。

(美聯社、彭博社)

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部