圖:谷歌AI生成的4張美國國父圖像無一為白人。\網絡圖片

  【大公報訊】據《華盛頓郵報》報道:日前,有用戶指責谷歌的AI工具Gemini無法正確生成白人的歷史圖像,存在反白人偏見。由於引發爭議,谷歌上周將Gemini的圖像生成工具下線。

  谷歌於本月初開放瞭其AI工具Gemini的圖像生成服務,但隨後被發現其生成的歷史人物圖像十分不準確。社交媒體X上的一篇帖子顯示,當用戶要求Gemini生成“美國國父”(佐治.華盛頓)的圖像時,AI返還的4張圖片分別是一名印第安人、一名黑人、一名膚色較深的非白人,和一名亞洲人,避開瞭華盛頓本來的膚色。

  除瞭華盛頓的例子外,Gemini還生成瞭黑人納粹德國士兵、黑人教宗、非白人的維京人等存在嚴重不準確的圖像。更驚人的是,當用戶要求Gemini生成一張“白人傢庭”的圖像時,卻被Gemini拒絕並指此要求“宣揚種族刻板印象”,而要求其生成“黑人傢庭”則無此問題。

  谷歌23日表示,AI在生成圖像時“未能考慮到存在明顯錯誤”的選項,且隨著時間推移,Gemini在敏感問題上變得愈發謹慎。對此,美國企業傢馬斯克狠批,高呼“覺醒(美國對有色人種等群體的身份認同運動)意識病毒正摧毀西方文明”。

  谷歌DeepMind創辦人之一哈薩比斯是Genimi的主要推手,他本周一說,修正圖像生成功能可能需要幾周。但專傢們對此表示懷疑,薩裡大學的電腦科學傢伍德沃德教授說,聽起來這個問題很可能植根在訓練數據和算法中,而且很難解決。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部