Meta 公佈瞭自研芯片的進展。名為Meta

Training and Inference Accelerator,即Meta 訓練和推理加速芯片,簡稱MTIA。它預計將於2025年發佈。

Meta 宣稱 MTIA 是提高效率和水平的重要工具,

定制化的 MTIA 采用 ASIC 架構,可並行執行多個任務,適用於AI加速計算,從而成為 Meta 人工智能訓練和推理芯片傢族中重要的組成部分。

Meta強調,雖然芯片的內存和網絡等功能還需要進一步優化,但MTIA在每瓦性能方面“顯著”提升瞭效率,可以幫助Meta更好探索人工智能前沿技術。

此外Meta還表示,MTIA將專註於人工智能推理,而不是訓練。

第一代MTIA 由 Meta 在2020年創建,使用瞭7納米工藝,在Meta自己設計的性能測試中,它被認為在“中低復雜度”的AI模型方面相比GPU具有優勢。

Meta AI 官方關於MTIA芯片的示意簡圖

除瞭MTIA,Meta還在開發另一種芯片,被稱為Meta可擴展視頻處理器(MSVP),顧名思義,MSVP主要的工作是將視頻內容——不管是短視頻還是直播,都盡量通過MSVP來加載整合,滿足不同平臺渠道對碼率、分辨率和低延遲等需求,避免讓基礎視頻需求采用軟件編碼形式處理,進而加速整個視頻工作流程。

Meta 在幾個月前成立瞭生成式AI團隊,據說紮克伯格,CTO Andrew Bosworth 花瞭大量的時間和這個團隊討論Meta在人工智能領域能做些什麼。上周他們剛推出瞭針對廣告客戶的內容設計工具。

Meta 在人工智能的進展過去集中在審核過濾和廣告推薦算法這些領域,許多時候這些負載是使用CPU組合運行的,再加上定制的專門用於加速的AI芯片。

隨著生成式AI的爆發,Meta已經采購瞭大量的英偉達芯片,原來的芯片方案已經被放棄。

Meta 基礎設施副總裁Alexis Bjorlin在TechCrunch的采訪中將自研芯片形容為“構建對堆棧所有層面的控制能力”,這和百度的AI戰略思路很相似,從數據中心設計到訓練框架再到數據集和算法,Meta試圖在AI方面追上競爭對手,開始進行對本身AI全鏈條資源的整合。

自研芯片緊鑼密鼓提上日程,形成對比的是現在所有人都還在依賴英偉達的芯片。

Meta目前訓練大模型所使用的是名為Research SuperCluster (RSC)的超級計算機,它內置瞭2000個英偉達DGX A100系統,包括16000塊A100 GPU。

谷歌和微軟也都有自己的超級計算機,微軟把它整合在瞭自己的Azure雲上(然後又和OpenAI結合在一起,後者使用微軟的資源訓練大模型),谷歌的超算則有26000塊H100 GPU。

超算資源直接和大模型開發訓練以及推理的進度有關,但也意味著會受到英偉達產能的“卡脖子”,因此各傢都在推動自研芯片進展。

Google很早就研發瞭名為TPU的訓練芯片,AlphaGo就由其驅動。上個月有消息傳出,微軟在秘密研發自己的AI芯片,合作夥伴是英偉達對手AMD。

Meta 走向自研之路是順理成章的,強化在AI領域的垂直整合能力不僅可以降低成本,定制芯片還能方便根據自傢業務需求定制功能,更容易打造差異化競爭點。

如果Meta的大模型一方面能在傳統的社交業務上支撐內容廣告營銷(這部分具體的運行模式Meta自己承認也還在探索中),另一方面將生成式AI接入元宇宙,幫助用戶生成數字孿生形象和相關的代碼,那麼其增長潛力將會極其巨大,紮克伯格在2月份就表示要致力於提高Meta的人工智能算力,押註AI的未來看上去是必由之路,Meta 的自研芯片是向這條道路進發的最新嘗試。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部