“外界對(duì)大模型有相當(dāng)多的誤解,”近日據(jù)媒體報(bào)道,李彥宏的一則內(nèi)部講話曝光。在最近一次和員工交流中,李彥宏談及三個(gè)大模型認(rèn)知誤區(qū),涵蓋了大模型競(jìng)爭(zhēng)、開源模型效率、智能體趨勢(shì)等熱點(diǎn)話題。
李彥宏認(rèn)為未來大模型之間的差距可能會(huì)越來越大。他進(jìn)一步解釋,大模型的天花板很高,現(xiàn)在距離理想情況還相差非常遠(yuǎn),所以模型要不斷快速迭代、更新和升級(jí);需要能幾年、十幾年如一日地投入,不斷滿足用戶需求,降本增效。
榜單不代表大模型實(shí)力,模型之間的差距是多維的
對(duì)于行業(yè)“大模型之間的能力已經(jīng)沒有壁壘”的說法,李彥宏給出了不同觀點(diǎn)。“每次新模型發(fā)布,都要和GPT-4o做比較,說我的得分已經(jīng)跟它差不多了,甚至某些單項(xiàng)上得分已經(jīng)超過它了,但這并不表明和最先進(jìn)的模型就沒有差距了。”
他解釋說,很多模型為了證明自己,會(huì)在發(fā)布之后去打榜,會(huì)去猜測(cè)試題目、答題技巧,從榜單上看 ,或許模型的能力已經(jīng)很接近了,“但到實(shí)際應(yīng)用中,實(shí)力還是有明顯差距的。”
李彥宏指出,模型之間的差距是多維度的。行業(yè)往往更關(guān)注理解、生成、邏輯、記憶等能力的差距,但卻忽視了成本、推理速度等維度,有些模型雖能達(dá)到同樣效果,但成本高、推理速度慢,還是不如先進(jìn)模型。
內(nèi)部講話中,李彥宏認(rèn)為,真正要去衡量大模型能力,應(yīng)該是在具體應(yīng)用場(chǎng)景中,看是否能滿足用戶需求、產(chǎn)生價(jià)值增益,這才是最值得被在乎的。
開源模型效率不高,解決不了算力問題
延續(xù)此前觀點(diǎn),內(nèi)部講話中,李彥宏進(jìn)一步闡釋了外界對(duì)開源大模型的認(rèn)知誤區(qū)。
“在大模型時(shí)代之前,大家習(xí)慣了開源意味著免費(fèi)、意味著成本低。” 他解釋說,比如開源的Linux,因?yàn)橐呀?jīng)有了電腦,所以使用Linux是免費(fèi)的。但這些在大模型時(shí)代不成立,大模型推理是很貴的,開源模型也不會(huì)送算力,還得自己買設(shè)備,無法實(shí)現(xiàn)算力的高效利用。
“效率上開源模型是不行的。” 他表示,“ 閉源模型準(zhǔn)確講應(yīng)該叫商業(yè)模型,是無數(shù)用戶分?jǐn)傃邪l(fā)成本、分?jǐn)偼评碛玫臋C(jī)器資源和GPU,GPU的使用效率是最高的,百度文心大模型3.5、4.0的GPU使用率都達(dá)到了90%多。”
李彥宏分析,在教學(xué)科研等領(lǐng)域,開源模型是有價(jià)值的;但在商業(yè)領(lǐng)域,當(dāng)追求的是效率、效果和最低成本時(shí),開源模型是沒有優(yōu)勢(shì)的。
智能體是大模型最重要的發(fā)展方向,但還不是業(yè)界共識(shí)
李彥宏還談及了大模型應(yīng)用的發(fā)展階段,他認(rèn)為首先出現(xiàn)的是Copilot,對(duì)人進(jìn)行輔助;接下來是Agent智能體,有一定的自主性,能自主使用工具、反思、自我進(jìn)化;這種自動(dòng)化程度再發(fā)展,就會(huì)變成AI Worker,能獨(dú)立完成各方面的工作。
當(dāng)前,智能體已經(jīng)受到越來越多的大模型公司及客戶的關(guān)注,李彥宏認(rèn)為,雖然“有很多人看好智能體這個(gè)發(fā)展方向,但是到今天為止,智能體還不是共識(shí),像百度這樣把智能體作為大模型最重要的戰(zhàn)略、最重要的發(fā)展方向的公司并不多。”
為什么要強(qiáng)調(diào)智能體?李彥宏也給出了答案,“智能體的門檻確實(shí)很低”, 很多人不知道怎么把大模型變成應(yīng)用,而智能體是一個(gè)非常直接、高效、簡(jiǎn)單的方式,在模型之上構(gòu)建智能體相當(dāng)方便。目前,每周都有上萬個(gè)新的智能體在百度文心智能體平臺(tái)上被創(chuàng)造出來,智能體的日均分發(fā)次數(shù)已快速增長(zhǎng)至800萬次。