快科技4月2日消息,據媒體報道,在最近的一篇論文中,蘋果的研究團隊宣稱,他們提出瞭一個可以在設備端運行的模型ReALM,這個模型在某些方面可以超過GPT-4。

ReALM的參數量分別為80M、250M、1B和3B,體積都非常小,適合在手機、平板電腦等設備端運行。

ReALM研究的主要是,讓AI識別文本中提到的各種實體(如人名、地點、組織等)之間的指代關系的過程。

論文將實體分為三種:

屏幕實體(On-screen Entities):指的是當前顯示在用戶屏幕上的內容。

對話實體(Conversational Entities):指的是與對話相關的內容。例如,用戶說“打電話給媽媽”,那麼媽媽的聯系人信息就是對話實體。

後臺實體(Background Entities):指的是與用戶當下操作或屏幕顯示內容可能並不直接相關的實體,比如正在播放的音樂或即將響起的鬧鈴。

論文表示,盡管大型語言模型已經證明在多種任務上具有極強的能力,但在用於解決非對話實體(如屏幕實體、後臺實體)的指代問題時,它們的潛力還沒有得到充分利用。

而ReALM則是一種全新的方法,通過將其性能與GPT-3.5和GPT-4進行瞭對比,顯示最小模型的性能與GPT-4相當,而更大的模型則顯著超過瞭GPT-4。

這項研究有望用來改進蘋果設備上的Siri助手,幫助Siri更好地理解和處理用戶詢問中的上下文。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部