開源大模型王座再易主,通義千問1100億參數(shù)拿下SOTA,3個月已推出8款模型
轟轟烈烈的百模大戰(zhàn)硝煙漸散,當(dāng)人們開始討論閉源模型格局初定時,2024年,不得不說開源大模型給整個技術(shù)圈帶來了不少新的驚喜。
開源大模型,已經(jīng)開啟大卷特卷模式。
全球范圍,太平洋兩岸,雙雄格局正在呼之欲出。
Llama 3中杯大杯剛驚艷亮相,國內(nèi)通義千問就直接開源千億級參數(shù)模型Qwen1.5-110B,一把火上Hacker News榜首。
不僅相較于自家720億參數(shù)模型性能明顯提升,在MMLU、C-Eval、HumanEval等多個基準(zhǔn)測試中,Qwen1.5-110B都重返SOTA開源模型寶座,超越Llama 3 70B,成最強開源大模型。
中文能力方面,對比僅喂了5%非英文數(shù)據(jù)的Llama 3 70B,Qwen1.5-110B更是優(yōu)勢明顯。
于是乎,模型一上線,開源社區(qū)已經(jīng)熱烈響應(yīng)起來。
這不,Qwen1.5-110B推出不到一天,幫助用戶在本地環(huán)境運行創(chuàng)建大語言模型的Ollama平臺,就已火速上線鏈接。
值得關(guān)注的是,這已經(jīng)是3個月內(nèi)通義千問開源的第8款大模型。開源大模型都在卷些什么?
那么,問題來了,因Llama 3和Qwen1.5接連開源而持續(xù)的這波開源大模型小熱潮中,開源模型又在卷些什么?
如果說上一階段由馬斯克Grok和Mixtral所引領(lǐng)的話題熱點是MoE,那網(wǎng)友們這一兩周內(nèi)聚焦的第一關(guān)鍵詞,當(dāng)屬Scaling Laws——尺度定律
OpenAI創(chuàng)始成員、前特斯拉AI總監(jiān)Andrej Karpathy在總結(jié)Llama 3時,就著重提到過其中尺度定律的體現(xiàn):
Llama 2在2T token數(shù)據(jù)上訓(xùn)練,而Llama 3直接加碼到了15T,遠超Chinchilla推薦量。并且Meta提到,即便如此,模型似乎依然沒有以標(biāo)準(zhǔn)方式“收斂”。
也就是說,“力大磚飛”這事兒還遠沒有達到上限。
無獨有偶,Qwen1.5-110B延續(xù)了這個話題的討論。
官方博客提到,相比于Qwen1.5-72B,此次開源的千億參數(shù)模型在預(yù)訓(xùn)練方法上并沒有太大的改變,但包括編程、數(shù)學(xué)、語言理解、推理在內(nèi)的各項能力提升明顯。
我們認(rèn)為性能提升主要來自于增加模型規(guī)模。
更強大、更大規(guī)模的基礎(chǔ)語言模型,也帶來了更好的Chat模型。
阿里的研究人員們指出,Qwen1.5-110B的評測成績意味著,在模型大小擴展方面仍有很大的提升空間。
官方還淺淺劇透了Qwen 2的研究方向:同時擴展訓(xùn)練數(shù)據(jù)和模型大小,雙管齊下。
一、多語言和長文本能力
尺度定律之外,由閉源模型掀起的長文本風(fēng)潮,同樣在開源模型身上被重點關(guān)注。
Llama 3的8K上下文窗口,就遭到了不少吐槽:實在有點“古典”。
Qwen1.5-110B在這方面延續(xù)了同系列模型的32K上下文。在此前的測試中,長文本能力測試結(jié)果顯示,即使是Qwen1.5-7B這樣的“小模型”,也能表現(xiàn)出與GPT3.5-turbo-16k類似的性能。
并且,開源的優(yōu)勢就是敢想你就來。
Qwen1.5官方博客中提到,雖然紙面給的是32K吧,但并不代表模型的上限就到這兒了:
您可以在config.json中,嘗試將max_position_embedding和sliding_window修改為更大的值,觀察模型在更長上下文理解場景下,是否可以達到您滿意的效果。
另一個由通義千問而被cue到的大模型能力評判指標(biāo),就是多語言能力。
以Qwen1.5-110B為例,該模型支持中文、英文、法語、西班牙語、德語、俄語、韓語、日語、越南語、阿拉伯語等多種語言。
阿里高級算法專家林俊旸分享過通義千問團隊內(nèi)部收到的反饋:實際上,多語言能力在全球開源社區(qū)中廣受歡迎,正在推動大模型在全球各地的落地應(yīng)用。
而Qwen1.5在12個比較大的語言中,表現(xiàn)都不遜于GPT-3.5。
對于中文世界而言,這也是國產(chǎn)開源大模型的優(yōu)勢所在。
畢竟Llama 3強則強矣,訓(xùn)練數(shù)據(jù)方面中文語料占比實在太少(95%都是英文數(shù)據(jù)),單就中文能力而言,確實沒法兒拿來即用。
相比之下,Qwen1.5 110B的中文實力就靠譜多了。
能讓歪果仁瞬間抓狂的中文水平測試,輕松拿捏:
弱智吧Benchmark,也能應(yīng)對自如:
此外,還有不少網(wǎng)友提到了開源模型型號豐富度的問題。
以Qwen1.5為例,推出不到3個月,已經(jīng)連續(xù)開源8款大語言模型,參數(shù)規(guī)模涵蓋5億、18億、40億、70億、140億、320億、720億和1100億,還推出了代碼模型CodeQwen1.5-7B,和混合專家模型Qwen1.5-MoE-A2.7B。
隨著大模型應(yīng)用探索的不斷深入,業(yè)界已經(jīng)逐漸達成新的共識:在許多具體的任務(wù)場景中,“小”模型比“大”模型更實用。
而隨著大模型應(yīng)用向端側(cè)的轉(zhuǎn)移,豐富、全面的不同型號開源模型,無疑給開發(fā)者們帶來了更多的選擇。
二、“把開源進行到底”
如同大洋彼岸OpenAI引領(lǐng)閉源模型發(fā)展,而Meta靠開放權(quán)重的Llama系列另辟蹊徑,在國內(nèi),阿里正是大廠中對開源大模型態(tài)度最積極的一家。
從Qwen到Qwen1.5,再到多模態(tài)的Qwen-VL和Qwen-Audio,通義千問自去年以來可謂開源消息不斷。僅Qwen1.5系列,目前累計已開源10款大模型。
阿里官方,也已直接亮明“把開源進行到底”的態(tài)度。這在卷大模型的互聯(lián)網(wǎng)大廠中,確實是獨一份。
所以,阿里堅持走開源路線,背后的底層邏輯是什么?
或許可以拆解為以下幾個層面來分析。
首先,在技術(shù)層面,盡管以GPT系列、Claude系列為代表的閉源模型們目前占據(jù)著領(lǐng)先地位,但開源模型也“步步緊逼”,不斷有新進展驚艷科技圈。
圖靈獎得主Yann LeCun就曾援引ARK Invest的數(shù)據(jù)認(rèn)為“開源模型正走在超越閉源模型的道路上”。
ARK Invest當(dāng)時預(yù)測,在2024年,開源模型會對閉源模型的商業(yè)模式構(gòu)成挑戰(zhàn)。
而隨著Llama 3為標(biāo)桿的新一波開源大模型的爆發(fā),越來越多的業(yè)內(nèi)專家也開始期待,強大的開源模型“會改變很多學(xué)界研究和初創(chuàng)公司的發(fā)展方式”。
值得一提的是,開源模型獨特的一重優(yōu)勢在于,來自開源社區(qū)的技術(shù)力量,同時也反哺了開源大模型的發(fā)展。
林俊旸就在量子位AIGC產(chǎn)業(yè)峰會上分享過,通義千問32B的開源,就是在因開發(fā)者們的反饋而推動的。
其次,在應(yīng)用落地層面,開源大模型無疑起到了加速器的作用。
開源社區(qū)的熱情就側(cè)面佐證了開發(fā)者們把基礎(chǔ)模型的控制權(quán)把握在自己手中的傾向性。
以通義千問為例,在HuggingFace、魔搭社區(qū)的下載量已經(jīng)超過700萬。
更實際的落地案例,也正在各行各業(yè)中持續(xù)實現(xiàn)。
比如,中國科學(xué)院國家天文臺人工智能組,就基于通義千問開源模型,開發(fā)了新一代天文大模型“星語3.0”,將大模型首次應(yīng)用于天文觀測領(lǐng)域。
而對于推動開源的企業(yè)而言,打響的也不僅僅是名氣和在開發(fā)者社區(qū)中的影響力。
通義千問的B端業(yè)務(wù),也正因開源而加速。
最新消息是,通義大模型不僅“上天”,現(xiàn)在還“下礦”了。
繼西部機場集團推出基于阿里云通義大模型打造的首個航空大模型后,西安塔力科技通過接入阿里云通義大模型,打造了新型礦山重大風(fēng)險識別處置系統(tǒng),并已在陜煤建新煤礦等十余座礦山上線,這是大模型在礦山場景的首次規(guī)?;涞亍?/p>
目前,新東方、同程旅行、長安汽車、親寶寶等多家企業(yè)均已宣布介入通義大模型。
轟轟烈烈的百模大戰(zhàn)硝煙漸散,當(dāng)人們開始討論閉源模型格局初定時,2024年,不得不說開源大模型給整個技術(shù)圈帶來了不少新的驚喜。
而隨著大模型應(yīng)用開始成為新階段探索的主旋律,站在開發(fā)者、初創(chuàng)企業(yè)、更多非互聯(lián)網(wǎng)企業(yè)的角度而言,以Llama、通義千問等為代表的開源大模型越強,垂直行業(yè)結(jié)合做行業(yè)大模型的自由度就會越高,落地速度也會越快。
過去互聯(lián)網(wǎng)的繁榮建立在開源的基礎(chǔ)之上,而現(xiàn)在,在大模型風(fēng)暴中,開源大模型再次顯現(xiàn)出鯰魚效應(yīng)。
自研大模型的必要性和競爭力,正在不斷被開源卷王們卷沒了。
本文由人人都是產(chǎn)品經(jīng)理作者【量子位】,微信公眾號:【量子位】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評論,等你發(fā)揮!