老黃又來掀桌瞭啦!

在今天凌晨的 2023 年全球超算大會( SC2023 )上,英偉達推出瞭全新GPU H200

作為前代 H100 的升級款,老黃直接不裝瞭,在官網上單方面將 H200 稱為 “ 當世最強 ” 。

但更秀的是,沒人會因此質疑他們違反廣告法,因為在 AI 時代,對手們真隻能眼巴巴地看著英偉達的車尾燈。

從英偉達官方透露的數據來看, H200 最強的就是在大模型推理表現上。

以 700 億參數的 LLama2 大模型為例, H200 推理速度幾乎比前代的 H100 快瞭一倍,而且能耗還降低瞭一半。

能取得這麼強的成績,自然是 H200 的硬件給力。

從參數方面看, H200 的主要提升就是把上一代 “ G 皇 ”H100 的顯存,從 80GB 拉到瞭 141GB 帶寬從 3.35TB/s 增加到瞭 4.8 TB/s

而這些進步則主要要歸功於HBM3e 內存技術

今年 8 月的時候, SK 海力士推出 HBM3e 之後,據宣稱單顆帶寬可以達到 1.15TB/s ,相當於在 1 秒鐘內傳輸瞭 230 部 FHD 高清電影(每部容量 5G )。

在 SK 海力士官宣 HBM3e 之後不久,包括三星、美光在內的內存廠商們,都陸續跟進瞭這一技術。

這個 HBM3e ,其實就是之前大傢都在用的 HBM3 的升級版。

說白瞭就是有更高的性能、更高的帶寬,好處就是芯片能用更快的速度傳輸數據,同時還降低功耗。

非常適合眼下的AI 和大數據運用

於是英偉達第一時間就找到 SK 海力士進行瞭合作。

所以我們能看到這才沒多久, H200 就已經用上瞭這一新技術。

比起技術升級更方便的是, H200 和 H100 都是基於英偉達 Hopper 架構打造的。

所以兩款芯片可以互相兼容,那些裝滿瞭 H100 的企業不需要調整,可以直接更換。

不過,乍一看好像是王炸,但實際上H200 可能隻是 H100 的一個 “ 中期改款 ”

因為我們發現, H100 和 H200 單論峰值算力的話,其實是一模一樣的。

真正提升的參數隻有顯存、帶寬。

而在此前,大傢常用來評判 AI 芯片性能的重要參數:訓練能力。

H200 相較 H100 的提升並不明顯

從英偉達給出的數據來看,在 GPT-3 175B 大模型的訓練中, H200 隻比 H100 強瞭 10% 。

在世超看來,這種操作大概率是有意為之

之前各個大廠忙著打造自傢的大模型,對 GPU 最大的需求毫無疑問就是訓練,所以當時大傢的需求是提升訓練能力。

而如今,隨著 AI 大語言模型不斷落地應用,訓練模型在廠商眼中可能已經是牛夫人瞭,大傢反而全去卷推理速度。

所以這次 H200 很可能是故意忽略 “ 算力 ” 升級,轉而進行推理方面的發力

不得不說,老黃的刀法依舊精準。

當然瞭,這也是英偉達工程師們給老黃擠牙膏的本事,誰讓人傢顯卡真就遙遙領先呢。

哪怕隻是做瞭個小提升, H200 還真就能當得起 “ 當世最強 ” 的名號。

而且根據瑞傑金融集團估計, H100 芯片售價在 2 萬 5-4 萬美金之間,那加量後的 H200 隻會比這高

而如今像亞馬遜、谷歌、微軟和甲骨文等大廠的雲部門,已經付完錢排排站,就等著明年 H200 交貨瞭。

畢竟,哪傢大模型隨便升個級不要幾千個 GPU ?

隻能說這波老黃又又又賺麻瞭。

但問題就是,加價對於 AI 芯片永遠不是問題。

今年初創公司、大廠、政府機構等等為瞭搶一張 H100 擠破腦袋的樣子還在上演,所以明年H200 的銷量根本不用愁

“ 是人是狗都在買顯卡 ” ,去年說完這句話的馬斯克也不得不轉頭就加入 “ 搶卡大軍 ” 。

更誇張的是,英偉達方面還說瞭,推出 H200 不會影響 H100 的擴產計劃。

也就是明年英偉達還是打算賣 200 萬顆 H100 芯片,也能側面看出, AI 芯片是多麼不愁賣。

但面對全球嗷嗷待哺的市場,英偉達其實也有點力不從心。。

像 OpenAI 作為打響 AI 革命第一槍的人,結果因為沒有足夠的 GPU 痛苦得不行。

比如因為算力不夠用,自傢 GPT 們被各種吐槽 API 又卡又慢;

因為算力不夠用, GPT 更強的上下文能力始終沒法全員推廣;

因為算力不夠用, GPT 們沒法賣給客戶更多專有定制模型。。。

光連 OpenAI 創始人奧特曼,就已經出來好幾次炮轟過算力短缺。

而為瞭解決這個問題, OpenAI 也想瞭不少辦法。

比如自研 AI 芯片、與英偉達等制造商展開更緊密合作、實現供應商多元化等等。

上個月初就有消息說 OpenAI 已經在找收購目標瞭。

更進一步的是特斯拉,他們就在 7 月推出瞭由定制 AI 芯片 D1 打造的 Dojo 超級計算機,用來訓練自動駕駛系統。

當時摩根士丹利直接吹瞭一篇研報說:特斯拉這波下來,比用英偉達的 A100 足足省下瞭 65 億美元

當然,這也不是說馬斯克的這個自研的 AI 芯片就比 A100 強瞭。

而隻是因為自研芯片隻需要幹自傢的活,更符合自己需要、也沒有算力浪費。

就好比英偉達的芯片是一鍋大雜燴,誰來瞭吃都能吃飽飽;而自研芯片雖然隻是小碗菜,但它可以按照個人口味做,雖然做得少、但更合胃口。

其他大廠也沒閑著,比如微軟要自研 “ 雅典娜 ” 谷歌在年初就在自研芯片上取得突破進展。。

但就像我們前面說的,這次 H200 其實隻是一個 “ 中期改款 ” ,還不足以打消其他廠商們的小心思。

按照英偉達自己放出的消息,大的還是明年會來的 B100 ,從圖裡看它至少是有指數級的提升

所以世超覺得,大傢夥忙活半天,在硬實力面前,黃老爺的位置恐怕還是會越來越穩。

你看像是即使強如 Meta 早在 2021 年就意識到,自己怎麼幹都比不上英偉達的GPU 性能,轉頭就從老黃那下瞭幾十億訂單( Meta 最近好像又有點自研的心思瞭 )。

還記得老黃剛宣佈英偉達是 “ AI 時代的臺積電 ” 的時候,有不少人冷嘲熱諷。

結果現在才發現,這句話居然是老黃的謙辭。

畢竟 2022 年臺積電 “ 隻 ” 占瞭全球晶圓代工產能的 60% ,而英偉達如今已經占據瞭可用於機器學習的圖形處理器市場 80% 以上的份額。

總感覺,等老黃的大招真來瞭,這些大廠們的芯片自研項目恐怕又得死一片吧。。。

撰文:八戒 編輯:江江 & 面線 封面:煥妍

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部