最近幾天,聯發科的相關消息可真不少。一方面,他們剛剛推出瞭新的天璣9200+移動平臺,在跑分、遊戲性能等方面再次超越瞭競爭對手。同時首發天璣9200+的iQOO Neo8系列新機也已官宣,並且很快就將正式上市。

另一方面,日前更是有消息顯示,聯發科方面已經與電腦GPU設計大廠NVIDIA達成合作,雙方將共同開發基於ARM架構、可用於Windows生態(即Windows on ARM)的PC SoC產品。與此同時,聯發科也將就此取得瞭NVIDIA的GPU授權,最快在2024年可能就會有GeForce GPU集成到天璣旗艦移動平臺中。

如果你熟悉近年來的手機SoC領域,看到這則消息可能馬上就會意識到,在高通、蘋果早已堅持自研GPU多年,三星已與AMD簽訂長期GPU合作協議的背景下,如果聯發科真的在明年就在旗艦產品上實裝NVIDIA GPU,那麼這也就意味著,以PowerVR、ARM為代表,曾經紅極一時的傳統“低功耗移動GPU”廠商,實際上相當於被各大SoC廠商集體放棄,變相被逐出瞭高端手機市場。

為什麼會這樣呢?縱觀各方面的因素,我們其實並不難找到這個問題的答案。

現在手機GPU已經太大,甚至大到瞭更接近PC的設計習慣

從硬件設計上來看,想必有許多朋友會習慣性地認為,手機裡的GPU是一種簡單的、規模很小的設計,由於它們比PC上的GPU要簡陋很多,因此兩者之間在架構和設計思路上也存在著較大的技術鴻溝。

其實這樣的想法放到10年、20年之前,可能是無比正確,但時至今日,情況已經發生瞭很大的改變。

例如以GPU中最關鍵的ALUs數量,也就是大傢熟悉的“核心數”為例。2008年的初代高通驍龍S1平臺所集成的Adreno 200,核心數隻有8個、算力為2.1GFlops,而同期的PC主流顯卡NVIDIA GeForce 9600GT核心數量是64個,算力為208Gflops,兩者間的核心數量相差8倍,算力更是相差100倍。

但到瞭2023年,驍龍8 Gen2中的Adreno 740核心數量已經高達2048個、算力為3.482TFlops。相比之下,PC上的RTX4060核心數量為3072、算力是15.39Tflops。兩者的核心數量差縮小到瞭1.5倍,算力差距則不到5倍。

那麼這意味著什麼呢?簡單來說,這代表如今手機SoC裡集成的GPU,其實已經是個相當程度的“龐然大物”瞭。特別是那些定位旗艦級的手機GPU,它們的硬件復雜程度已然與PC顯卡差不太多瞭。

在這樣的前提下,對於以往一直習慣於“小核心”設計的PowerVR和ARM來說,這樣的“高端GPU”很可能已經超出瞭他們的設計能力。相比之下,早就習慣瞭幾千、幾萬核GPU的PC GPU大廠,面對未來的手機圖形芯片設計自然也就有瞭設計思路和習慣上的優勢。

圖形API的統一,讓移動圖形廠商優勢蕩然無存

在過去很長的一段時間裡,手機、或者說低功耗移動設備的GPU,在編程方面其實一直是與PC顯卡“分道揚鑣”的。低功耗設備多半使用的是專為它們制定的OpenGL ES圖形規范,這是一種“簡略版”的Open GL接口。而PC顯卡則更多地使用DirectX、Open GL等,“PC專用”的圖形API。

這也就意味著,過去手機遊戲和PC遊戲之間,在編程、優化上存在著較大的技術分歧。同時當時的手機遊戲也往往會使用一些專為移動設備制作的開發工具,它們與PC遊戲的開發工具也並不兼容。換句話說,假使用當時的PC GPU去跑當時的“手機遊戲”,很可能是無法運行的,或者就算能運行、效果也不見得好。

但是,如今的情況已經完全不同。在微軟、谷歌、蘋果等多方的推動下,如今的“PC GPU”和“手機GPU”在最基礎的圖形API上,已經基本實現瞭統一。它們都兼容DirectX,都使用相同版本的Vulkan API,也都可以運行基於相同圖形和物理引擎,比如虛幻5、PhsyX所開發的3D內容。

如此一來,過往的“手機專用圖形API”、“手機專用遊戲引擎”,實際上就相當於是被“消滅”掉瞭,大傢都統一使用瞭相同的圖形API、使用瞭相同的遊戲引擎。於是在這樣的情況下,傳統的“PC GPU廠商”實際上哪怕什麼也不做,就相當於已經具備瞭巨大的技術優勢,以及與遊戲引擎廠商的長期合作積累。而傳統的手機GPU廠商呢?他們什麼也沒剩下瞭。

關鍵功能的缺失,讓“手機GPU”註定因為“落後”挨打

不知道大傢有沒有註意過這樣一件事,那就是現階段的高端手機屏幕,普遍已經達到瞭1.5K、2K分辨率,它們的橫向像素分辨率則高達1200P、1440P,甚至可能更高。

但現在大傢玩的幾乎所有主流手遊渲染分辨率,很多都還停留在720P或者最多900P的水準。這也就意味著,大傢最終看到屏幕上的遊戲畫面,實際上都是經過瞭“拉升放大”的結果,而並非真正的點對點渲染。因此遊戲畫面要麼變得模糊,要麼就會顯示出很多邊緣鋸齒。

為什麼會這樣?說白瞭,還是因為現有的手機GPU性能不夠,無法真正支撐遊戲運行在“高畫面特效”、“高幀率”、“高原生分辨率”的模式下。由於降特效或者幀率視覺上的損失太過於明顯,所以現在的手遊才會普遍運行在“非原生分辨率”下。

那麼這些問題要怎麼解決呢,是直接大幅提升GPU的算力嗎?雖然這樣做理論上可行,但也會帶來功耗、發熱的顯著增加。因此更加現實的解決方案,就是基於AI、基於深度學習的畫面超分算法。也就是讓GPU用低分辨率渲染,但在顯示的時候通過AI來實現畫面的“無損放大”,從而緩解分辨率不匹配所導致的“不清晰”感。

然而縱觀業界不難發現,現在隻有四傢廠商有類似的技術,分別是NVIDIA的DLSS、AMD的FSR、Intel的XeSS,以及前不久高通方面剛剛公佈的“SGSR”。聯發科雖然此前也搞出瞭基於AI的畫面超分技術,但受制於ARM的GPU並不支持,所以他們隻能在APU裡運行相關功能,效率上自然也就不如上述四傢直接在GPU上跑“超分”來得高。

或許也正因如此,當高通、三星一個借助自研、一個緊抱AMD大腿,都在手機GPU上實現瞭原生AI超分後,聯發科自然也就有瞭拋棄“不爭氣”的ARM GPU,換一個合作夥伴的理由。畢竟遊戲超分現在已普遍被認為是能夠顯著提升幀率、降低功耗的關鍵圖形技術之一,特別是對於旗艦機型來說,它更是能夠讓遊戲畫面真正“點對點”的高幀率運行,這樣意義也實在太大瞭。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部