OpenAI近日發佈首款文生視頻模型——Sora模型,完美繼承DALL·E 3的畫質和遵循指令能力其支持用戶輸入文本描述,生成一段長達1分鐘的高清流暢視頻。
360董事長周鴻禕日前在微博發文,談到OpenAI的文字轉視頻模型Sora,他認為Sora模型意味著AGI實現將從10年縮短到1年。周鴻禕稱,AI不一定那麼快顛覆所有行業,但它能激發更多人的創作力。
一個視頻或者電影是由無數個60秒組成的,今天Sora可能給廣告業、電影預告片、短視頻行業帶來巨大的顛覆,但它不一定那麼快擊敗TikTok,更可能成為TikTok的創作工具。
周鴻禕還指出,國內大模型發展水平表面看已經接近GPT-3.5瞭,但實際,上跟4.0比還有一年半的差距。
OpenAl手裡應該還藏著一些秘密武器,無論是GPT-5,還是機器自我學習自動產生內容,包括AIGC。
奧特曼是個營銷大師,知道怎樣掌握節奏,他們手裡的武器並沒有全拿出來,這樣看來中國跟美國的Al差距可能還在加大。
此外,Open AI訓練這個模型應該會閱讀大量視頻,大模型加上Diffusion技術需要對這個世界進行進一步瞭解,學習樣本就會以視頻和攝像頭捕捉到的畫面為主。
一旦人工 智能接上攝像頭,把所有的電影都看一遍,把YouTube,上和TikTok 的視頻都看一遍,對世界的理解將遠遠超過文字學習。
一幅圖勝過千言萬語,而視頻傳遞的信息量又遠遠超過一幅圖,這就離AGI真的就不遠瞭,不是10年20年的問題,可能一兩年很快就可以實現。
發表評論 取消回复