之前英偉達GPU拿貨周期大約一個月,現在基本需要三個月或更長。另外,部分新訂單“可能要到12月份才能交付”。一些雲服務廠商已嚴格限制內部使用這些先進芯片,以將其保留至需要強力運算的任務。

編輯 | 鄭遠方

在持續已久的“AI熱潮”中,各傢爭相推出的大模型、AI應用,都進一步推升瞭對算力狂熱的需求。本周已有報道指出英偉達後續對AI頂級規格芯片需求明顯看增,緊急向臺積電追加預訂先進封裝產能。

需求飆漲下,英偉達GPU價格自然也是水漲船高。據集微網消息,有代理商透露,英偉達A100價格從去年12月開始上漲,截至今年4月上半月,其5個月價格累計漲幅達到37.5%;同期A800價格累計漲幅達20.0%。

同時,英偉達GPU交貨周期也被拉長,之前拿貨周期大約為一個月,現在基本都需要三個月或更長。甚至,部分新訂單“可能要到12月才能交付”

供需的巨大鴻溝面前,在這一情形之下,眾多客戶也不得不“勒緊腰帶”。上述文章指出,國內可用於訓練AI大模型的A100大約有4萬-5萬個,供應相當吃緊,一些雲服務廠商已嚴格限制內部使用這些先進芯片,以將其保留至需要強力運算的任務

值得一提的是,類似的事情在微軟內部也早已發生。3月已有外媒報道指出,微軟內部陷入AI服務器硬件短缺的窘境,不得不對AI硬件資源采取“配額供給”機制,限制公司內部其他AI工具開發團隊的資源用量。

拉長時間線來看,有GPU業內人士指出,實際上從去年6月起,英偉達就已宣佈上調A100價格,漲幅20%左右,渠道商在加緊囤貨。至於英偉達A800,在ChatGPT火爆之前就已出現漲價,但反映到市場則有一定的滯後性,趕上ChatGPT爆火這一時間點,更放大瞭這一現象。

英偉達GPU漲價與ChatGPT有一定的關聯性,且交貨周期也受到瞭連帶的影響,導致市場上出現瞭眾多炒卡的行為。

此外,在海外電商平臺上,英偉達新旗艦級GPU H100的價格在4月中旬就已炒到瞭超過4萬美元。

隨著如今各傢科技巨頭爭相推出自傢大模型,GPU需求量仍在持續攀升。OpenAI指出,AI大模型要持續取得突破,所需要消耗的計算資源每3~4個月就要翻一倍,資金也需要通過指數級增長獲得匹配

據財通證券測算,2023/2024/2025年大模型有望為GPU市場貢獻69.88/166.2/209.95億美元增量。

其中在訓練端,以目前主流的訓練端GPU英偉達A100測算,假設ASP為1萬美元,2023/2024/2025年全球訓練端GPU需求市場規模預計分別為0.74/2.00/4.07億美元;

在推理端,以目前英偉達用於推理端計算的A10測算,假設ASP為2800美元,2023/2024/2025年全球推理端GPU需求市場規模預計分別為69.14/164.2/205.88億美元。

業內人士也表示,AI大模型訓練成本之一是基礎算力,大概需要384-3000塊左右的A100才能基本滿足要求,如果價格持續上漲,無論是互聯網、AI大廠、還是創業新貴,要追加的投入都可能遠超當初。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部