3月30日,在2025中關(guān)村論壇年會上,零一萬物 CEO、創(chuàng)新工場董事長李開復表示,“大模型的推理成本正在以每年降低十倍的速度快速下降,這為AI-First應用爆發(fā)提供了非常重要的條件。”
“兩年前模型性能不夠好的模型,現(xiàn)在已經(jīng)夠好了;兩年前推理成本太貴的模型,現(xiàn)在已經(jīng)是‘白菜價’了。”李開復認為,“AI-First 應用很快將井噴,2025年將會是AI-First應用爆發(fā)、大模型‘落地為王’的元年。”
他指出,因為模型訓練所用的數(shù)據(jù)量已經(jīng)觸及瓶頸,以及算力方面也存在著客觀制約因素,預訓練階段的 Scaling Law正在放緩。好在行業(yè)內(nèi)已經(jīng)出現(xiàn)了新的曙光,Scaling Law 正從預訓練階段轉(zhuǎn)向推理階段,也就是慢思考模式。過去,預訓練階段的 Scaling Law指的是——有更多的 GPU、更多的數(shù)據(jù),模型就可以變得更聰明,但目前其增長趨勢放緩了。而新的慢思考 Scaling Law是——模型思考的時間更長,就會得出更優(yōu)質(zhì)的結(jié)果。
“目前看來,慢思考 Scaling Law 下,模型性能的成長速度非常快,而且還有很大的增長空間。”李開復表示,“結(jié)合這些新的技術(shù)創(chuàng)新,現(xiàn)在模型訓練的過程變得更像是先訓練一個‘文科生’,讓模型閱讀所有書籍,然后再向‘理科生’方向訓練,讓模型能夠證明數(shù)學題、會寫代碼,最終得到厲害的‘文理雙全’模型。”
在李開復看來,隨著現(xiàn)在企業(yè)和用戶已經(jīng)經(jīng)過“DeepSeek Moment”的市場教育,中國市場真正覺醒了,這也為 中國AI-First應用的爆發(fā)掃清了一大障礙。今年人工智能的一個焦點問題應該是:Make AI Work,讓大模型真正賦能千行百業(yè)。
據(jù)他介紹,鑒于DeepSeek落地到企業(yè)生產(chǎn)力場景中仍存在許多需要克服的卡點困難。零一萬物在過去幾個月做了戰(zhàn)略調(diào)整,已經(jīng)全面擁抱 DeepSeek,并且把大部分力量用于把DeepSeek優(yōu)質(zhì)基座模型轉(zhuǎn)變?yōu)槠髽I(yè)級DeepSeek部署定制解決方案——可以類比為零一萬物在打造AI 2.0時代的Windows系統(tǒng),而DeepSeek就是驅(qū)動Windows的內(nèi)核。