速遞|李彥宏最新內(nèi)部講話:十個(gè)大模型認(rèn)知誤區(qū) —— 從大模型競(jìng)爭(zhēng)、開源模型效率到智能體趨勢(shì)
李彥宏在最新的內(nèi)部講話中分享了他對(duì)大模型技術(shù)的深刻見解,涵蓋了大模型競(jìng)爭(zhēng)、開源模型效率和智能體趨勢(shì)等多個(gè)方面。
近日,百度創(chuàng)始人&CEO 李彥宏在和員工交流中詳談了他對(duì)大模型的 10 個(gè)判斷,覆蓋話題包括大模型競(jìng)爭(zhēng)、開源模型效率以及智能體趨勢(shì)等。例如,大模型間的差距在縮小嗎?大模型技術(shù)已經(jīng)接近天花板了嗎?為什么說商業(yè)化模型更有性價(jià)比?
以下是根據(jù)這場(chǎng)內(nèi)部分享整理的主要內(nèi)容,enjoy~
01. 外界對(duì)大模型有相當(dāng)多的誤解。每個(gè)新模型發(fā)布,都要和GPT40做比較,在榜單上分?jǐn)?shù)差不多、甚至單項(xiàng)超過,但這并不表明和最先進(jìn)的模型就沒有差距了。
02. 模型之間的差距是多維的,不僅有能力差距,還有成本、推理速度的差距。有些模型雖能達(dá)到同樣效果,但成本更高、推理速度更慢,還是不如先進(jìn)模型。
03. 真正衡量大模型能力的是,在具體應(yīng)用場(chǎng)景中,是否滿足了用戶需求、有沒有產(chǎn)生價(jià)值的增益。
04. 大模型的天花板很高,今天做到的和理想狀況差得還非常遠(yuǎn),所以模型要不斷快速迭代、更新和升級(jí)。要能幾年、十幾年如一日地投入,不斷滿足用戶需求,降本增效,模型之間的差距就會(huì)越來越大。
05. 在一個(gè)完全競(jìng)爭(zhēng)的市場(chǎng)環(huán)境中,不要覺得領(lǐng)先 12~18 個(gè)月是個(gè)很短的時(shí)間,只要能永遠(yuǎn)領(lǐng)先競(jìng)爭(zhēng)對(duì)手 6 個(gè)月,你就贏了。
06. 模型除了能力效果之外,還要看效率。效率上開源模型是不行的,閉源模型準(zhǔn)確講應(yīng)該叫商業(yè)模型,有無數(shù)用戶分?jǐn)傃邪l(fā)成本、分?jǐn)偼评淼臋C(jī)器資源和 GPU,GPU的使用效率是最高的。
07. 以前用開源的 Linux,已經(jīng)有了電腦,所以用 Linux 是免費(fèi)的,成本低;但這在大模型時(shí)代不成立,大模型推理是很貴的,開源模型不會(huì)送算力,還得自己買設(shè)備,解決不了算力高效利用的問題。
08. 大模型應(yīng)用的發(fā)展階段,一開始是 Copilot,然后是 Agent 智能體,最主要的是它有了自主性,能自主使用工具、反思、自我進(jìn)化。這種自動(dòng)化程度再發(fā)展,就會(huì)變成 AIWorker,能夠獨(dú)立完成各方面的工作。
09. 現(xiàn)在智能體的熱度開始上來了,但到今天為止,智能體還不是共識(shí),像百度這樣把智能體作為大模型最重要的戰(zhàn)略和發(fā)展方向的公司并不多。
10. 為什么強(qiáng)調(diào)智能體?因?yàn)橹悄荏w的門檻確實(shí)很低。很多人不知道怎么把大模型變成應(yīng)用,而智能體是一種非常直接、高效、簡單的方式,在模型之上構(gòu)建智能體相當(dāng)方便。
本文由人人都是產(chǎn)品經(jīng)理作者【江天 Tim】,微信公眾號(hào):【有新Newin】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評(píng)論,等你發(fā)揮!