圖:美國AI未來耗電量預計。

  人工智能(AI)迅猛發展,一個不可避免的問題浮出水面:AI系統運行需要耗費大量的能源,尤其是電力。據估算,OpenAI旗下的聊天機器人ChatGPT,每天消耗超過50萬千瓦時的電力,相當一個美國傢庭每日耗電量的1.7萬倍。以特斯拉創辦人馬斯克、OpenAI行政總裁阿爾特曼為代表的科技大佬們,紛紛對AI行業所面臨的能源危機發出警告,認為“新的能源危機到來”。專傢預測,全球AI系統的電力消耗,或將很快相當於歐洲一個中等國傢全年發電量。

  【大公報訊】AI能力的提升,比拼的是算力,而強大算力的背後就是高耗能。以聊天機器人ChatGPT為例,其進行一次搜尋所需電量,是在谷歌引擎上進行一次搜索所需電量的10倍。據估計,ChatGPT目前每天回應約2億個請求,消耗超過50萬千瓦時的電力。而一個美國傢庭平均每天的耗電量為29千瓦時(1千瓦時約為1度電),即ChatGPT日耗電量是每個傢庭用電量1.7萬倍。

  按照目前AI的快速應用趨勢,專傢預計到2026年,AI消耗的電力將是2023年的10倍。因此,馬斯克在2月29日談及AI時表示,AI芯片短缺的情況可能已經過去,“明年,你會發現沒有足夠的電力來運行所有的AI芯片”。其實,從去年開始,馬斯克多次警告電力短缺問題,並預測美國2年內將爆發大缺電,到2045年美國的電力消耗將增加2倍,如果不盡快行動,將會阻礙AI和電動車發展。

  阿爾特曼在1月份瑞士達沃斯會議上也稱,未來AI需要能源突破,因為其消耗的電力將遠遠超出預期。

  2027年AI年耗電量可敵國

  未來,AI對電力的“胃口”究竟有多大?荷蘭阿姆斯特丹自由大學商業與經濟學院研究員德弗裡斯在去年10月發表論文,預測到2027年AI服務器的年均耗電量,可能相當於荷蘭或瑞典等國一個國傢一年的總耗電量。

  根據美國芯片制造商英偉達公佈的數據進行粗略計算,單臺英偉達DGX A100服務器的功耗為3至6.5千瓦,相當於數個美國傢庭的用電量總和,而多個H100芯片可以在一臺服務器上消耗超過10千瓦的電量。德弗裡斯表示,英偉達在2023年生產瞭約10萬個H100類型的芯片,到2027年,其年產量或將增至150萬個。屆時,全球新建的服務器與AI相關的電力消耗,可能會增加85.4至134.0太瓦時(1太瓦時等於1億度電),該數字與荷蘭、阿根廷、瑞典等國傢的年用電量相當。英偉達目前擁有數據中心AI專用芯片90%以上的市場份額,其用電量可作為整個AI產業的代表。

  德弗裡斯的計算,還不包括數據中心用於冷卻AI芯片的耗電量,因此AI用電數字可能仍被低估。據國際能源署(IEA)估計,到2026年,全球數據中心、AI和加密貨幣的耗電量將增加一倍。全球8000個數據中心中約有三分之一位於美國。微軟創辦人比爾蓋茨在上周劍橋能源周會上表示,電力是決定數據中心能否盈利的關鍵因素,而AI消耗的電力是驚人的。

  能源供應恐將捉襟見肘

  當下AI行業的龍頭OpenAI、Meta、微軟等公司完全沒有分享耗電相關的信息。這導致AI產業的具體耗電量很難估計,因為不同AI模型的運作方式存在差異,其耗電量也有不一。

  近年全球極端天氣加劇,高溫、極寒、山火和幹旱都影響供電。另外,包括美國在內,很多國傢的基建設施都面臨設備老化等問題,加密貨幣挖礦熱潮、電動車迅速發展在消耗大量的電,如果AI再加入“搶電”戰圈,能源供應將更加捉襟見肘。

  業界估計,未來五年美國電力需求增長的預測比一年前翻瞭一番,新的人工智能數據中心、美國《通脹削減法》補貼制造工廠以及拜登政府推動的電動汽車轉型,都將使得電力需求激增,這對於美國清潔能源的過渡構成壓力。不過,這也可能進一步推動電力投資和轉型。阿爾特曼曾稱,AI的未來取決於能源方面的突破。科技公司如今已是能源公司的大型投資者。另外,許多科企都正在開發耗電更少的AI模型,即便如此,專傢認為當前的業界仍缺乏相關的研發動力,隻要行業內對高效模型的激烈競爭不減,全球AI產業對“搶電”的趨勢就沒有盡頭。 (綜合報道)

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部