IT之傢 12 月 21 日消息,蘋果的人工智能研究人員表示,他們已取得一項重大突破,通過一種創新的閃存利用技術,成功地在內存有限的 iPhone 和其他蘋果設備上部署瞭大型語言模型(LLM)。這一成果有望讓更強大的 Siri、實時語言翻譯以及融入攝影和增強現實的尖端 AI 功能登陸未來 iPhone。
近年來,像 ChatGPT 和 Claude 這樣的 LLM 聊天機器人風靡全球。它們能夠進行流暢的對話、撰寫不同風格的文本,甚至生成代碼,展現出強大的語言理解和生成能力。然而,這些模型有一個致命弱點:它們極其“吃”數據和內存,普通手機根本無法滿足其運行需求。
為瞭突破這一瓶頸,蘋果研究人員開辟瞭一條新路,將目光投向瞭手機中普遍存在的閃存,也就是儲存應用和照片的地方。在題為“閃存中的 LLM:利用有限內存實現高效的大型語言模型推理(LLM in a flash: Efficient Large Language Model Inference with Limited Memory)”的論文中,研究人員提出瞭一種巧妙的閃存利用技術,將 LLM 模型的數據存儲在閃存中。作者指出,與傳統用於運行 LLM 的 RAM 相比,閃存在移動設備中更為豐富。
IT之傢註意到,他們的方法巧妙地利用兩種關鍵技術繞過限制,從而最小化數據傳輸並最大化閃存內存吞吐量:
窗口化(Windowing):可以將其視為一種回收利用的方法。AI 模型不會每次都加載新數據,而是會重復使用部分已處理的數據。這減少瞭頻繁讀取內存的需要,讓整個過程更加流暢高效。
行-列捆綁(Row-Column Bundling): 這種技術類似於你讀一本書時,不是逐字逐句地閱讀,而是成段地閱讀。通過更有效地分組數據,可以從閃存中更快地讀取數據,從而加速 AI 理解和生成語言的能力。
論文指出,這項技術可以讓 AI 模型的運行規模達到 iPhone 可用內存的兩倍。這意味著標準處理器 (CPU) 的速度提高瞭 4-5 倍,圖形處理器 (GPU) 的速度提高瞭 20-25 倍。“這一突破對於在資源有限的環境中部署先進的 LLM 至關重要,極大地擴展瞭它們的適用性和可訪問性,” 研究人員寫道。
更快更強的 iPhone AI
人工智能效率的突破為未來的 iPhone 開辟瞭新的可能性,例如更先進的 Siri 功能、實時語言翻譯以及攝影和增強現實中復雜的 AI 驅動功能。該技術還為 iPhone 在設備上運行復雜的人工智能助手和聊天機器人奠定瞭基礎,據悉蘋果已經開始著手這項工作。
蘋果開發的生成式 AI 最終可能被整合到其 Siri 語音助手中。2023 年 2 月,蘋果舉辦瞭人工智能峰會,並向員工介紹瞭其大型語言模型工作。據彭博社報道,蘋果的目標是打造一個更智能的 Siri,與 AI 深度集成。蘋果計劃更新 Siri 與信息應用程序的交互方式,讓用戶能夠更有效地處理復雜問題和自動完成句子。除此之外,傳聞蘋果還計劃將 AI 添加到盡可能多的蘋果應用程序中。
Apple GPT:口袋裡的超級大腦
據報道,蘋果正在研發自己的生成式 AI 模型,代號為“Ajax”,旨在與 OpenAI 的 GPT-3 和 GPT-4 競爭,擁有 2000 億個參數,暗示其在語言理解和生成方面具有高度復雜性和強大的能力。Ajax 在內部被稱為“Apple GPT”,旨在統一蘋果機器學習開發,這表明蘋果將 AI 更深入地整合到其生態系統中。
據最新報道,Ajax 被認為比早期的 ChatGPT 3.5 更加強大。然而,一些消息人士也指出,OpenAI 的新模型可能已經超越瞭 Ajax 的能力。
The Information 和分析師 Jeff Pu 均聲稱,蘋果將在 2024 年底左右,也就是 iOS 18 發佈之時,在 iPhone 和 iPad 上提供某種形式的生成式 AI 功能。Pu 在 10 月份表示,蘋果將在 2023 年建設數百臺 AI 服務器,2024 年還將建設更多服務器。據報道,蘋果將提供雲端 AI 和設備端處理 AI 相結合的解決方案。
發表評論 取消回复