內存不足是AI大模型手機的攔路虎。

2023年10月4日,Google在紐約舉辦瞭「Made by Google」硬件發佈會,並正式發佈瞭Pixel 8和Pixel 8 Pro。Pixel 8系列作為首批搭載Android 14系統的手機,據官方介紹其最大亮點就是AI功能。在發佈會持續的一小時內,「AI」一詞被提及超過50次,可見Google對這一功能的重視,以及AI是Pixel 8核心賣點的事實。

然而讓人意外的是,日前Google以「硬件限制」為理由,拒絕在Pixel 8上運行最新的人工智能模型「Gemini Nano」。Google隨後宣佈即將在6月的季度更新中為Pixel 8提供「Gemini Nano」功能,但用戶隻能在隱藏的開發者選項中開啟。

圖源:Unsplash

對於此事,谷歌設備和服務軟件副總裁Seang Chau解釋稱,為瞭能隨時調用「Gemini Nano」模型,部分AI模型會常駐內存。而Pixel 8隻有8GB內存,如果貿然啟用「Gemini Nano」功能,很可能會影響用戶的使用體驗。與之相反,Pixel 8 Pro擁有12GB內存,能比較好地釋放AI模型性能。

從Seang Chau的回復來看,Pixel 8並不是不能使用「Gemini Nano」,而是使用後會占用大量手機系統內存,導致其他應用的體驗感下降。作為參考,三星Galaxy S24系列8GB內存版本就可運行Gemini Nano模型,而沒有這方面的限制。

“一刀切”能否克服端側大模型劣勢?

目前,大模型已經成為手機廠商們的「必爭之地」,小米、華為、榮耀、OPPO、vivo等手機廠商均已發佈搭載大模型的旗艦機型。像華為的盤古大模型、小米的MiLM、OPPO的安第斯大模型、vivo的藍心大模型以及榮耀的魔法大模型,也隨著新機發佈首次走進消費者的視野。在以上大模型解決方案中,有以雲端為主的,也有雲端與端側相結合的,但幾乎沒有純端側的大模型。

所謂的「端側」,指的是將大模型服務佈置在手機設備內部的芯片之中,僅利用芯片的算力生成結果。與雲端大模型相比,這種方案的優勢是不需要聯網,因此數據不用上傳至雲端,減少瞭泄露風險,並在一定程度上減輕瞭雲成本。

但純端側方案也有其不可忽視的劣勢,就是算力有限。如果手機設備隻是接入雲端大模型,自然不需要終端設備擁有多強的算力和AI芯片,但如果在手機本地運營端側大模型,則對算力有著極高的要求。盡管從理論上來說,常規手機芯片中的GPU、CPU都能進行並行計算,但在效率和能耗控制方面仍比不上AI芯片中專門用於AI加速計算的NPU/TPU等神經處理單元,更別提動輒擁有幾百上千張頂級顯卡的雲端後臺瞭。

圖源:谷歌

而Google的「Gemini Nano」在發佈之初,就已經將其定位為在移動設備上本地運行的端側大模型,並且其內置在Android 14系統中。也就是說,未來如果其他開發者想通過AICore API直接調用其他Android手機的Gemini AI能力,將會遇到與Pixel 8相同的硬件要求問題。

在雷科技看來,Google之所以限制Pixel 8調用Gemini Nano模型,一方面是擔心Gemini Nano模型在占用大量手機系統內存後,影響用戶使用其他應用程序時的體驗感,為瞭保險起見,幹脆直接一刀切;另一方面,Pixel 8標準版與Pixel 8 Pro標準版的售價相差大約2000元,在核心配置相差不大的情況下,AI功能或許能驅使目標用戶選擇更貴的Pixel 8 Pro。

內存壓縮技術,是端側大模型的必經之路?

我們暫且不討論運行內存對端側大模型的影響是否真的有那麼大,站在行業角度,如何在算力有限的手機上實現較好的大模型效果,是所有手機廠商都需要考慮的問題。

此前微軟推出的Copilot Pro訂閱服務對AI PC的算力和內存提出瞭明確要求,但在AI手機領域,至今還沒有任何一傢企業給出大模型手機的類似標準。

或許大部分人都不知道,其實最早被曝出規劃手機端側路線的企業,是至今仍未在iPhone用上大模型的蘋果。蘋果在招聘介紹中提及瞭本地推理引擎中實現壓縮和加速大模型的相關要求,雖然iOS 18還未正式推出,但蘋果對AI大模型的探索從其取得的專利就能窺見一二。

圖源:Apple WWDC

日前,蘋果研究團隊發表瞭一篇關於「如何解決大模型手機內存不足」的論文。簡單來說,研究團隊嘗試用閃存技術減少數據加載,並且優化數據塊大小提高閃存吞吐量,最後實現對加載到內存中數據的高效管理。

毫無疑問,這是解決端側部署大模型關鍵問題的可行方案。整個過程的重點是優化閃存交互和內存管理,在實驗過程中,運用閃存技術的大模型延遲毫秒僅為原來的1/10。但論文提供方案僅針對60億-70億參數的模型,暫時無法完美處理超出參數范圍的大模型。不過該方案給所有廠商提供瞭一個全新思路,未來完全有可能通過閃存技術解決端側大模型內存不足的問題。

除瞭存儲技術外,芯片廠商也從自身角度給出瞭可行的解決方案。2023年11月,聯發科發佈瞭號稱「生成式AI移動芯片」的新一代旗艦SoC——天璣9300。針對億級參數級別的大模型,天璣9300采用內存壓縮技術「NeuroPilot Compression」,據官方介紹,該技術可以更高效地利用內存,大幅減少AI大模型對設備內存的占用,最高支持運行330億參數的AI大模型。

圖源:聯發科

目前,vivo X100、OPPO Find X7、iQOO Neo9 Pro等機型均搭載瞭天璣9300處理器。其中聯發科與vivo合作,已經實現瞭10億、70億、130億參數的AI大語言模型的運行,此外,天璣9300還成功集成瞭通義千問大模型。

相比起雲端,端側的運行特性無疑更容易令消費者放心。要提升端側大模型的實際表現,離不開手機廠商和硬件廠商的共同努力,閃存技術和內存壓縮技術能有效解決大模型占用內存的問題,未來估計會被更多品牌采用。

為大模型鋪路,大內存手機將加速普及

端側大模型占手機內存,用戶怎麼辦?其實這是一個“想要什麼”的問題。如果為瞭享受大模型功能,則需放棄手機原有的部分體驗,現階段絕大多數AI大模型其實並沒有多少真正實用的功能,大多數手機用戶充其量隻是嘗嘗鮮,如果非要在非必須功能與手機體驗之間進行二選一,相信選擇手機體驗的用戶還是占大多數。

面對無法從根源解決大模型占用內存問題的情況,大內存就會成為用機體驗和AI大模型功能兼顧的第二道保障。當前安卓手機的最低內存配置普遍為8GB,最高內存容量已經來到24GB,主流旗艦機型基本以12GB和16GB內存為主。如果以Google Pixel 8 Pro的12GB內存作為當前運行端側大模型的內存標準,那麼絕大多數手機品牌的主流旗艦還是過關的。

圖源:小米商城

實際上,內存占用最多隻能算是大模型進步過程中遇到的技術難題,隻要繼續發展相信這類問題終究會迎刃而解。但無論是端側還是雲端,大模型手機最需要搞清楚的核心問題仍是「用戶是否真的需要大模型」。

大模型手機作為去年手機行業最熱門的技術方向,幾乎每傢手機品牌的技術展會以及發佈會都會提及相關技術。但在門店等線下渠道,雷科技卻很少看到有品牌會將大模型放置在海報、卡片等宣傳物料上。誠然,線下渠道確實不太好展示大模型的相關功能,但也能一定程度上反映出手機廠商們對當前大模型手機的態度,或許他們也清楚現階段的大模型功能還很難在線下場景直接影響消費者購物。

大模型手機的技術水平仍處於初期發展階段,手機廠商還在不斷探索大模型與智能手機的結合。可以這麼說:大模型能為智能手機帶來的潛在價值,不亞於功能機到智能機的更替。至於大模型手機是否真的成為跟智能手機平行的新物種?不如讓我們將答案交給時間。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部