GPT(LLM)不是AGI的全部

1 評(píng)論 2876 瀏覽 26 收藏 47 分鐘

人工智能領(lǐng)域正在如火如荼地發(fā)展,隨著諸如ChatGPT、Claude、Gemini、Sora和Grok等平臺(tái)的不斷涌現(xiàn),AI技術(shù)和模型持續(xù)演進(jìn),引發(fā)人們對(duì)通用人工智能(AGI)的濃厚興趣。

在這一備受關(guān)注的話題中,人們常常將GPT和AGI的概念混淆在一起。

有人稱贊GPT是新的工業(yè)革命,有人則認(rèn)為當(dāng)前的人工智能技術(shù)已進(jìn)入AGI時(shí)代或即將邁入。

盡管GPT系列模型憑借出色的自然語(yǔ)言生成能力和廣泛的應(yīng)用聲名鵲起,但我們不能忽視的是,GPT模型雖擅長(zhǎng)處理大量文本數(shù)據(jù)和執(zhí)行各種語(yǔ)言任務(wù),但并非等同于通用人工智能。

GPT展現(xiàn)的智能只是人工智能技術(shù)中的一小部分,其重點(diǎn)在語(yǔ)言理解與生成,而AGI則追求跨領(lǐng)域、多任務(wù)的全面深厚智能。

因此,理性地認(rèn)識(shí)GPT與AGI之間的區(qū)別至關(guān)重要。

本文旨在探討當(dāng)前最新人工智能技術(shù)的成就,梳理和分析通用人工智能的發(fā)展脈絡(luò),盡管GPT備受矚目,卻并非AI通向AGI的全部旅程。

一、AGI全景梳理

當(dāng)我們探索人工智能的發(fā)展和前景時(shí),總是會(huì)創(chuàng)造一些概念和名詞。而充分理解這些詞匯則是認(rèn)識(shí)人工智能的第一步。

這些名詞包括人工通用智能(AGI)、窄人工智能(ANI)、自然語(yǔ)言處理(NLP)、計(jì)算機(jī)視覺(CV)、大語(yǔ)言模型(LLM)、AIGC(生成式人工智能)、GPT(生成式預(yù)訓(xùn)練Transformer模型)、BERT(基于Transformer的雙向編碼)、Diffusion Models(擴(kuò)散模型)、GANs(生成對(duì)抗網(wǎng)絡(luò))、Transformer、RNNs(循環(huán)神經(jīng)網(wǎng)絡(luò))、CNNs(卷積神經(jīng)網(wǎng)絡(luò))、ANN(人工神經(jīng)網(wǎng)絡(luò))、Fine-tuning(微調(diào))和PLHF(人類反饋的強(qiáng)化學(xué)習(xí))等。

本小結(jié)將通過概念和實(shí)現(xiàn)兩個(gè)層面梳理他們之間的關(guān)系。

1. 概念層

AI是人工智能(Artificial Intelligence)的簡(jiǎn)稱,該概念最早是達(dá)特茅斯大學(xué)的一名年輕教授約翰-麥卡錫(John McCarthy)在1956年為研討會(huì)寫提案時(shí)創(chuàng)造的,后來被廣泛接受為描述一種由人類創(chuàng)造出來的技術(shù),它模仿并擴(kuò)展了人類智能的各個(gè)方面,包括感知、學(xué)習(xí)、推理和決策等。但長(zhǎng)久以來AI概念只是描述人類的一種理想和目標(biāo),并無實(shí)際進(jìn)展。

為進(jìn)一步實(shí)現(xiàn)AI,學(xué)者和專家們根據(jù)其應(yīng)用場(chǎng)景不同將AI的目標(biāo)拆分為AGI和ANI兩種實(shí)現(xiàn)目標(biāo)。

  • AGI:是指通用人工智能(Artificial General Intelligence),它是一種智能的形式,能夠理解、學(xué)習(xí)和應(yīng)用知識(shí)跨越不同的領(lǐng)域和任務(wù),與人類智能類似。與ANI不同,后者主要專注于特定領(lǐng)域或任務(wù)(如圖像識(shí)別、語(yǔ)言翻譯或玩特定的游戲),AGI可以在沒有專門為每個(gè)新任務(wù)編程的情況下,自主地執(zhí)行任何智能生物能夠執(zhí)行的學(xué)習(xí)或解決問題的任務(wù)??梢哉fAGI是模型泛化形式。
  • ANI:是指窄人工智能(Artificial Narrow Intelligence),也被稱為專用人工智能,指的是專門設(shè)計(jì)來執(zhí)行一個(gè)或幾個(gè)特定任務(wù)的智能系統(tǒng)或軟件。這類智能系統(tǒng)表現(xiàn)出在其專門領(lǐng)域內(nèi)的高效率和強(qiáng)大能力,但它們的能力是局限的,只能在其被設(shè)計(jì)和訓(xùn)練的特定任務(wù)范圍內(nèi)工作。得益于AI三巨頭(Yann LeCun、Geoffrey Hinton & Yoshua Bengio)的貢獻(xiàn),在過去10年,ANI在語(yǔ)言處理、圖像識(shí)別方面取得突破性進(jìn)展,并廣泛在各行業(yè)中應(yīng)用和推廣。但在AGI派來看,ANI并不能算真正的AI,因?yàn)锳NI缺乏像人一樣對(duì)信息廣泛和通用的處理能力。人工智能到底是朝向知識(shí)專精的專家系統(tǒng)發(fā)展,還是知識(shí)覆蓋更廣泛、通用的百科全書方向發(fā)展?有待驗(yàn)證。但AGI作為新興事物確實(shí)已得到足夠的認(rèn)可和關(guān)注。

除了AGI和ANI兩個(gè)AI目標(biāo)概念以外,根據(jù)人類的感官需求,AI的具體應(yīng)用則主要體現(xiàn)在語(yǔ)言和視覺處理的兩大領(lǐng)域,即:NLP和CV。

  • NLP:是指自然語(yǔ)言處理(Natural Language Processing),是人工智能(AI)和計(jì)算機(jī)科學(xué)領(lǐng)域的一個(gè)分支,專注于使計(jì)算機(jī)能夠理解、解釋和生成人類的自然語(yǔ)言。NLP結(jié)合了計(jì)算機(jī)科學(xué)、人工智能和語(yǔ)言學(xué)的技術(shù),旨在橋接人類語(yǔ)言和計(jì)算機(jī)之間的差距。包括但不限于:文本分析,語(yǔ)言翻譯,對(duì)話系統(tǒng),自動(dòng)文摘,命名實(shí)體識(shí)別(NER),自然語(yǔ)言理解(NLU)等。
  • CV:是指計(jì)算機(jī)視覺(Computer Vision),目標(biāo)是使計(jì)算機(jī)能夠“看”和理解圖像和視頻中的內(nèi)容,就像NLP使計(jì)算機(jī)能夠理解和生成人類語(yǔ)言一樣。計(jì)算機(jī)視覺涵蓋了從基本的圖像處理到復(fù)雜的圖像理解的各個(gè)方面,包括但不限于:圖像分類,對(duì)象檢測(cè),圖像分割,圖像生成,圖像恢復(fù),動(dòng)作識(shí)別等。

當(dāng)前最火爆的ChatGPT和Stable Diffustion就是AI在NLP和CV領(lǐng)域最為成功的兩款應(yīng)用之一。而ChatGPT就是LLM的一種具體實(shí)現(xiàn)。

LLM:是指大規(guī)模型語(yǔ)言模型(Large Language Model)。隨著ChatGPT的成功,而廣為人知。是一種利用深度學(xué)習(xí)技術(shù)訓(xùn)練的人工智能系統(tǒng),旨在理解、生成和翻譯人類語(yǔ)言。這些模型通過分析海量的文本數(shù)據(jù)來學(xué)習(xí)語(yǔ)言的結(jié)構(gòu)、語(yǔ)法、語(yǔ)義及其使用上下文,從而能夠生成連貫、逼真的文本,回答問題,總結(jié)信息,翻譯語(yǔ)言,甚至編寫代碼。這里需要特別指出大規(guī)模是指模型訓(xùn)練過程中使用得的超大參數(shù)量,例如:ChatGPT-4訓(xùn)練參數(shù)量大概是1750億個(gè)參數(shù),而馬斯克剛剛開源的Grok-1參數(shù)量則為3140億個(gè)參數(shù)。不同于ANI領(lǐng)域中的自變量概念,這里的參數(shù)是指通過神經(jīng)網(wǎng)絡(luò)運(yùn)算的權(quán)重?cái)?shù)量。因此大樣本或大數(shù)據(jù)量并不能被認(rèn)為是大規(guī)模語(yǔ)言模型。同時(shí),LLM是特指大規(guī)模語(yǔ)言模型,即便是大規(guī)模參數(shù)的ANI模型也不能稱為L(zhǎng)LM,例如:華為盤古氣象大模型并不是LLM,其只是采用Transformer架構(gòu)的ANI模型。

最后我們要討論一個(gè)比較特殊的概念,即:生成式AI(Artificial Intelligence Generated Content,簡(jiǎn)稱AIGC)。該概念并不是AGI概念的原生詞匯,而是國(guó)內(nèi)學(xué)術(shù)造詞工廠的杰作。國(guó)內(nèi)普遍認(rèn)為AIGC是利用人工智能技術(shù)自動(dòng)創(chuàng)建文本、圖片、音樂、視頻等內(nèi)容的過程。包括但不限于自然語(yǔ)言生成(NLG)、計(jì)算機(jī)視覺、音頻合成和深度學(xué)習(xí)模型等領(lǐng)域。由于重復(fù)和含糊不清的定義,AIGC更像是把NLP、CV等重新包裝成產(chǎn)業(yè)應(yīng)用,制造互聯(lián)網(wǎng)熱點(diǎn)的過程。

以上重點(diǎn)講解了關(guān)于人工智能最近比較熱點(diǎn)的概念,但不是全部。之所以叫概念是因?yàn)檫@些名詞本身并無實(shí)際模型支持,只是方便人們歸類和理解的一種稱呼而已。接下來講解的具體AI工具則是有模型、架構(gòu)和算法支持,有實(shí)際實(shí)現(xiàn)意義的內(nèi)容。

2. 實(shí)現(xiàn)層

為了便于理解,我將模型、架構(gòu)和算法歸統(tǒng)稱為實(shí)現(xiàn)層,因此首先出場(chǎng)的是當(dāng)下最火的GPT模型。

1)GPT—生成式預(yù)訓(xùn)練Transformer模型(Generative Pre-trained Transformer)

這是一種LLM也是NLP,由OpenAI開發(fā)。它基于Transformer架構(gòu),主要用于處理和生成自然語(yǔ)言,因此GPT并不能直接生成圖像。GPT模型屬于深度學(xué)習(xí)的一部分,通過大量文本數(shù)據(jù)的預(yù)訓(xùn)練,學(xué)會(huì)了語(yǔ)言的結(jié)構(gòu)、語(yǔ)法、詞匯及其上下文之間的關(guān)系,使其能夠執(zhí)行各種語(yǔ)言任務(wù),如文本生成、翻譯、問答和摘要等。

其工作原理主要由預(yù)訓(xùn)練和微調(diào)構(gòu)成。

預(yù)訓(xùn)練階段,GPT模型在大規(guī)模的文本數(shù)據(jù)集上進(jìn)行訓(xùn)練,目的是學(xué)習(xí)語(yǔ)言的一般特征,比如詞匯、語(yǔ)法和語(yǔ)言使用的上下文關(guān)系,這一步驟讓模型能夠理解和生成語(yǔ)言的基本結(jié)構(gòu);

微調(diào)階段,模型通過在特定任務(wù)的數(shù)據(jù)上再次訓(xùn)練,能夠在特定的應(yīng)用場(chǎng)景中更加精準(zhǔn)和高效。GPT模型的特點(diǎn)是其“生成能力”,即能夠基于給定的文本提示生成連貫、創(chuàng)新、多樣化的文本內(nèi)容。這使得GPT模型不僅可以用于回答問題和參與對(duì)話,還能用于創(chuàng)作文章、編寫代碼和更多創(chuàng)造性的任務(wù)。

在左圖中,首先使用的Transfomer架構(gòu)開展預(yù)訓(xùn)練;而在右圖則是對(duì)不同任務(wù)進(jìn)行微調(diào)的輸入轉(zhuǎn)換。將所有結(jié)構(gòu)化輸入轉(zhuǎn)換為Token序列,由預(yù)訓(xùn)練模型處理,然后是Linear+softmax層處理。

微調(diào)(Fine-tuning)是深度學(xué)習(xí)中的一個(gè)重要概念,特別是在自然語(yǔ)言處理(NLP)、計(jì)算機(jī)視覺等領(lǐng)域的應(yīng)用中。微調(diào)通常發(fā)生在預(yù)訓(xùn)練模型的基礎(chǔ)上,目的是將這些通用模型調(diào)整為特定任務(wù)的專用模型。

2)BERT—基于Transformer的雙向編碼模型(Bidirectional Encoder Representations from Transformers)

這是一種同樣采用Transformer架構(gòu)的自然語(yǔ)言處理(NLP)預(yù)訓(xùn)練模型,由Google在2018年提出。它的核心創(chuàng)新之一是使用雙向Transformer編碼器來理解語(yǔ)言的上下文,這與之前的單向或部分雙向處理方法相比,能夠更準(zhǔn)確地捕捉到詞語(yǔ)間的關(guān)系和語(yǔ)義。

從上圖可以看到,BERT使用雙向轉(zhuǎn)換器。OpenAI GPT使用從左到右的轉(zhuǎn)換器。ELMo使用獨(dú)立訓(xùn)練的從左到右和從右到左的LSTM的級(jí)聯(lián)來生成下游任務(wù)的特征。在這三種表示中,只有BERT表示在所有層中都以左右上下文為聯(lián)合條件。

除了架構(gòu)差異之外,BERT和OpenAI GPT是微調(diào)方法,而ELMo是基于特征的方法。雖然BERT也使用了大量的文本數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,能夠捕捉語(yǔ)言的深層語(yǔ)義和上下文關(guān)系,但其設(shè)計(jì)初衷主要是提高特定的NLP任務(wù)(如問答、命名實(shí)體識(shí)別、情感分析等)的性能,而不是“生成能力”。由于BERT的參數(shù)量大致在3.4億左右,因此一般不把BERT歸為L(zhǎng)LM。

在自然語(yǔ)言處理(NLP)領(lǐng)域,除了著名的GPT系列和BERT之外,還有很多其他重要的模型和技術(shù)進(jìn)展,例如:ELMo、RoBERTa、T5、XLNet和Grok-1采用的Mixture-of-Experts模型等,由于篇幅有限不一一介紹。

在計(jì)算機(jī)視覺(CV)領(lǐng)域,也是眾星璀璨,其中以Diffusion Models和GANs最為著名。

3)Diffusion Models—擴(kuò)散模型

Diffusion Models同樣是生成模型,主要用于創(chuàng)建高質(zhì)量、逼真的數(shù)據(jù),如圖像、音頻、文本等。這些模型的靈感來自物理學(xué)中的擴(kuò)散過程,即物質(zhì)從高濃度區(qū)域向低濃度區(qū)域移動(dòng)。

Diffusion Models 通過以下兩個(gè)階段來生成數(shù)據(jù),即:噪聲添加過程(向前擴(kuò)散),噪聲去除過程(向后擴(kuò)散)。

擴(kuò)散過程是一個(gè)馬爾可夫鏈,它在采樣的相反方向上逐漸向數(shù)據(jù)添加噪聲,直到信號(hào)被破壞。當(dāng)擴(kuò)散由少量高斯噪聲組成時(shí),可以將采樣鏈轉(zhuǎn)換設(shè)置為條件高斯,從而實(shí)現(xiàn)特別簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)參數(shù)化。

在具體訓(xùn)練架構(gòu)的實(shí)現(xiàn)方面Diffusion models 通常利用CNNs(卷積神經(jīng)網(wǎng)絡(luò))作為其核心架構(gòu)。這主要是因?yàn)榫矸e神經(jīng)網(wǎng)絡(luò)在處理圖像數(shù)據(jù)方面的高效性和能力。

CNNs能夠從圖像中自動(dòng)學(xué)習(xí)和提取有用的特征,這使得它們非常適合于圖像相關(guān)的任務(wù),如圖像生成、圖像分類、圖像恢復(fù)等。

在Diffusion models的上下文中,CNNs被用來實(shí)現(xiàn)所謂的“去噪”步驟。在這一步驟中,模型試圖從部分加噪的數(shù)據(jù)中預(yù)測(cè)原始數(shù)據(jù)的干凈版本。這個(gè)過程需要模型能夠理解圖像中的復(fù)雜模式和結(jié)構(gòu),以便逐步消除噪聲并最終重建出清晰、高質(zhì)量的圖像。CNNs以其強(qiáng)大的空間特征提取能力,非常適合這項(xiàng)任務(wù)。

當(dāng)然,根據(jù)特定應(yīng)用的需求,Diffusion models也可以集成其他類型的神經(jīng)網(wǎng)絡(luò)架構(gòu)。例如,對(duì)于涉及序列數(shù)據(jù)(如文本或音頻)的生成任務(wù),可以考慮使用RNNs(循環(huán)神經(jīng)網(wǎng)絡(luò))或Transformer網(wǎng)絡(luò),這些網(wǎng)絡(luò)能夠更好地處理序列之間的依賴關(guān)系。

最近的研究也開始探索將Transformer架構(gòu)應(yīng)用于Diffusion models中,尤其是在需要處理大量上下文信息或長(zhǎng)序列數(shù)據(jù)的場(chǎng)景。OpenAI最近發(fā)布的Sora就是一種Transformer+Diffusion的訓(xùn)練模型,其利用Transformer架構(gòu),對(duì)視頻和圖像的時(shí)空補(bǔ)丁進(jìn)行編碼,實(shí)現(xiàn)在可變持續(xù)時(shí)間、分辨率和寬高比的視頻和圖像上訓(xùn)練文本條件擴(kuò)散模型。

總的來說,雖然Diffusion models最初和最常用的架構(gòu)是基于CNNs,但隨著技術(shù)的發(fā)展和研究的深入,其他類型的神經(jīng)網(wǎng)絡(luò)也被探索和應(yīng)用,以提高模型的性能和適用性。

4)GANs—生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks)

GANs是一種由Ian Goodfellow于2014年提出的深度學(xué)習(xí)模型。GANs通過其獨(dú)特的訓(xùn)練機(jī)制,在生成新數(shù)據(jù)樣本,尤其是圖像生成領(lǐng)域,表現(xiàn)出了顯著的能力。GANs的核心思想是基于兩個(gè)相互競(jìng)爭(zhēng)的網(wǎng)絡(luò):一個(gè)生成器(Generator)和一個(gè)判別器(Discriminator)。訓(xùn)練過程涉及對(duì)這兩個(gè)網(wǎng)絡(luò)進(jìn)行交替訓(xùn)練。首先,固定生成器,訓(xùn)練判別器以最大化其區(qū)分真假樣本的能力。然后,固定判別器,更新生成器以最大化判別器的錯(cuò)誤率。通過這種方式,生成器逐漸學(xué)會(huì)生成越來越逼真的數(shù)據(jù)。

這個(gè)過程像一個(gè)“偽造者”(生成器)試圖創(chuàng)造看起來真實(shí)的藝術(shù)品,和一個(gè)“鑒別者”(判別器)試圖區(qū)分藝術(shù)品是真是假的游戲。隨著游戲的進(jìn)行,偽造者變得越來越擅長(zhǎng)創(chuàng)造逼真的作品。它們都可以使用不同類型的神經(jīng)網(wǎng)絡(luò)架構(gòu)。

訓(xùn)練從具有4×4像素的低空間分辨率的生成器(G)和鑒別器(D)開始。隨著訓(xùn)練的進(jìn)行,我們逐漸向G和D添加層,從而提高生成圖像的空間分辨率。GANs的強(qiáng)大之處在于其架構(gòu)的靈活性,允許在生成器和判別器中使用多種神經(jīng)網(wǎng)絡(luò)類型。下面是GANs中常用的幾種神經(jīng)網(wǎng)絡(luò)類型:

  • 卷積神經(jīng)網(wǎng)絡(luò)(CNNs):對(duì)于處理圖像相關(guān)的任務(wù),如圖像生成、圖像到圖像的轉(zhuǎn)換等,卷積神經(jīng)網(wǎng)絡(luò)是最常見的選擇。CNNs能夠有效地處理圖像數(shù)據(jù),捕捉局部特征和模式,這使得它們?cè)趫D像識(shí)別和圖像生成任務(wù)中表現(xiàn)出色。
  • 深度卷積GAN(DCGAN):是一個(gè)著名的使用CNNs的GAN變體,專門設(shè)計(jì)用于提高圖像生成的質(zhì)量和穩(wěn)定性。
  • 全連接網(wǎng)絡(luò)(Dense Networks):在某些簡(jiǎn)單的GAN應(yīng)用中,尤其是在生成器和判別器的早期版本中,全連接網(wǎng)絡(luò)或密集網(wǎng)絡(luò)被用于處理相對(duì)簡(jiǎn)單的數(shù)據(jù)生成任務(wù)。雖然在處理復(fù)雜圖像任務(wù)時(shí),全連接網(wǎng)絡(luò)可能不如CNNs那樣有效,但它們?cè)诟拍钭C明和初步實(shí)驗(yàn)中仍然有其用武之地。
  • 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNNs):對(duì)于處理序列數(shù)據(jù)的任務(wù),如文本生成或音樂創(chuàng)作,循環(huán)神經(jīng)網(wǎng)絡(luò)(包括LSTM和GRU等變體)可以在生成器和/或判別器中使用。RNNs擅長(zhǎng)處理時(shí)間序列數(shù)據(jù)或任何形式的順序數(shù)據(jù),能夠捕捉數(shù)據(jù)中的時(shí)間依賴性和順序模式。
  • Transformer:最近Transformer網(wǎng)絡(luò)也開始被集成到GAN架構(gòu)中,尤其是在需要處理大量序列數(shù)據(jù)的任務(wù)中。Transformer架構(gòu)通過自注意力機(jī)制(self-attention)提供了一種有效的方式來捕捉序列中的長(zhǎng)距離依賴性,這在文本生成和某些類型的圖像處理任務(wù)中非常有用。

一般而言我們把GPT、BERT、Diffusion Models和GANs統(tǒng)稱為訓(xùn)練模型或框架,而將Transformer、RNNs、CNNs歸為訓(xùn)練架構(gòu)。區(qū)別是模型或框架可以根據(jù)不同應(yīng)用場(chǎng)景選擇不同的訓(xùn)練架構(gòu),而訓(xùn)練架構(gòu)中又可在不同的環(huán)節(jié),采用了不同的神經(jīng)網(wǎng)絡(luò)算法。由于篇幅有限,我們不再討論出現(xiàn)比較早的RNNs、CNNs,而是主要介紹當(dāng)前多用途的明星架構(gòu)Transformer。

5)Transformer架構(gòu)

Transformer是最初在2017年由Vaswani等人在論文《Attention is All You Need》中提出。它主要用于處理序列化數(shù)據(jù),如文本或時(shí)間序列數(shù)據(jù),特別在自然語(yǔ)言處理(NLP)領(lǐng)域內(nèi)取得了革命性的進(jìn)步。Transformer模型的核心思想是利用“自注意力(Self-Attention)”機(jī)制,使模型能夠在處理序列數(shù)據(jù)時(shí)考慮序列中各元素之間的全局依賴關(guān)系。

其主要編碼器和解碼器構(gòu)成:

  • 編碼器(Encoder):編碼器由多個(gè)相同結(jié)構(gòu)的層堆疊而成,每一層都包含一個(gè)多頭自注意力子層和一個(gè)前饋神經(jīng)網(wǎng)絡(luò)子層。在論文中Transformer由1個(gè)輸入層和6個(gè)編碼層構(gòu)成,但在實(shí)踐中層數(shù)可自行設(shè)置。編碼器的作用是將輸入序列轉(zhuǎn)換為一系列注意力表示。
  • 解碼器(Decoder):解碼器也由多個(gè)相同結(jié)構(gòu)的層堆疊而成,每一層包含一個(gè)多頭自注意力子層、一個(gè)編碼器-解碼器注意力子層和一個(gè)前饋神經(jīng)網(wǎng)絡(luò)子層。在論文中Transformer由1個(gè)輸入層、6個(gè)解碼層和1個(gè)輸入層構(gòu)成,同樣實(shí)踐中層數(shù)可自行設(shè)置。

解碼器的作用是根據(jù)編碼器的輸出和先前生成的部分目標(biāo)序列來逐步生成目標(biāo)序列。解碼器中的自注意力機(jī)制允許模型關(guān)注輸入序列的不同位置,而編碼器-解碼器注意力機(jī)制允許模型在解碼器的每個(gè)位置對(duì)編碼器的輸出進(jìn)行注意力計(jì)算,以便獲取輸入序列的信息。

在 Transformer 模型中,每個(gè)編碼器和解碼器層都包含殘差連接(Residual Connection)和層歸一化(Layer Normalization)操作。這些操作有助于緩解深層模型訓(xùn)練時(shí)的梯度消失和梯度爆炸問題,并且有助于模型更好地訓(xùn)練和收斂。殘差連接允許梯度更直接地反向傳播,并且層歸一化有助于穩(wěn)定訓(xùn)練過程中的每一層的梯度流。

Transformer作為通用架構(gòu),不同與傳統(tǒng)深度學(xué)習(xí)中具象化和關(guān)系復(fù)雜的自變量設(shè)置,而是將自變量泛化為:鍵向量(Key)、值向量(Value)和查詢向量(Query),模型泛化可極大增加架構(gòu)的通用性,且避免過度擬合。

  • 鍵向量(Key):鍵向量可以被視為一種索引,用于幫助查詢向量找到相關(guān)的信息。在自注意力機(jī)制中,每個(gè)輸入元素都有一個(gè)對(duì)應(yīng)的鍵向量,查詢向量與這些鍵向量進(jìn)行點(diǎn)積運(yùn)算,得到的結(jié)果經(jīng)過softmax函數(shù)處理后,可以得到一個(gè)權(quán)重分布,這個(gè)分布決定了模型對(duì)輸入序列中各個(gè)部分的關(guān)注程度。
  • 值向量(Value):值向量可以被視為實(shí)際的信息內(nèi)容。在自注意力機(jī)制中,每個(gè)輸入元素都有一個(gè)對(duì)應(yīng)的值向量,這些值向量根據(jù)由查詢向量和鍵向量計(jì)算得到的權(quán)重分布進(jìn)行加權(quán)求和,得到的結(jié)果就是自注意力層的輸出。
  • 查詢向量(Query):查詢向量可以被視為對(duì)信息的請(qǐng)求或查詢。在自注意力機(jī)制中,查詢向量用于與鍵向量進(jìn)行匹配,以確定模型應(yīng)該關(guān)注輸入序列中的哪些部分。

在Transformer架構(gòu)中驅(qū)動(dòng)模型訓(xùn)練的機(jī)制是自注意力機(jī)制(Self-Attention Mechanism),自注意力機(jī)制允許模型在計(jì)算編碼器和解碼器的輸出時(shí),對(duì)輸入序列的不同位置賦予不同的注意力權(quán)重。

具體而言,給定一個(gè)輸入序列,自注意力機(jī)制計(jì)算出每個(gè)詞與其他詞之間的相關(guān)性,然后通過加權(quán)求和的方式得到每個(gè)詞的表示。

這種機(jī)制使得模型可以同時(shí)關(guān)注輸入序列中的所有位置,而不是像RNN一樣逐步處理。自注意力機(jī)制幫助Transformer實(shí)現(xiàn)并行向量運(yùn)算能力,從而充分發(fā)揮GPU的并行計(jì)算能力或分布式計(jì)算能力,從而大幅提高訓(xùn)練效率和訓(xùn)練數(shù)據(jù)量,這也是大語(yǔ)言模型(LLM)的基礎(chǔ)。

為了進(jìn)一步增強(qiáng)模型的表達(dá)能力,Transformer將自注意力機(jī)制分為多個(gè)頭,即:多頭注意力(Multi-Head Attention)。每個(gè)頭學(xué)習(xí)一種不同的表示。最后,將多個(gè)頭的輸出拼接在一起并通過線性變換進(jìn)行投影,得到最終的注意力表示。多頭注意力由于同時(shí)考慮文字序列不同位置的相關(guān)性和語(yǔ)義信息,使得模型能夠更好地理解輸入序列中的各個(gè)部分之間的關(guān)系。

對(duì)Transformer最大的誤解是認(rèn)為它是一種神經(jīng)網(wǎng)絡(luò)。例如,某商業(yè)大佬就是說:“Transformer模擬了人腦神經(jīng)網(wǎng)絡(luò)”。Transformer是一種深度學(xué)習(xí)的訓(xùn)練架構(gòu),而非一種神經(jīng)網(wǎng)絡(luò)或算法,Transformer是利用前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks),實(shí)現(xiàn)向量矩陣的運(yùn)算。在每個(gè)編碼器和解碼器的每個(gè)位置都有一個(gè)前饋神經(jīng)網(wǎng)絡(luò)。

該網(wǎng)絡(luò)是一個(gè)全連接的前饋神經(jīng)網(wǎng)絡(luò),用于在每個(gè)位置對(duì)注意力表示進(jìn)行非線性變換。在實(shí)踐中往往都是根據(jù)實(shí)際情況對(duì)Transformer的基礎(chǔ)架構(gòu)進(jìn)行調(diào)整和優(yōu)化,并非一成不變。

6) MoE—混合專家模型(Mixture-of-Experts)

MoE是一種采用人工神經(jīng)網(wǎng)絡(luò)的訓(xùn)練架構(gòu),最早由Jacobs 等人在1991年的論文《Adaptive Mixtures of Local Experts》中提出。其核心思想是一種將多個(gè)局部專家模型組合在一起的方法,以適應(yīng)不同的輸入數(shù)據(jù)分布,并且這些專家模型可以動(dòng)態(tài)地分配權(quán)重。

在MoE中,每個(gè)專家模型都被訓(xùn)練來解決特定的子問題,而門控網(wǎng)絡(luò)則是用來決定在給定輸入情況下,哪個(gè)專家模型應(yīng)該負(fù)責(zé)給出最終的輸出。MoE出現(xiàn)時(shí)間較早,是為解決算法復(fù)雜性、提高訓(xùn)練性能、降低成本而提出的。

與Transformer不同,其架構(gòu)充分利用GPU集群的分布式計(jì)算能力,將多任務(wù)執(zhí)行從算法結(jié)構(gòu)層面轉(zhuǎn)移到GPU集群層面從而降低算法的結(jié)構(gòu)復(fù)雜性。而馬斯克剛剛開源的Grok-1就是采用這種架構(gòu)。

Mixture-of-Experts架構(gòu)的主要組成部分:

  • 專家模型(Expert Models):每個(gè)專家模型是一個(gè)獨(dú)立的神經(jīng)網(wǎng)絡(luò),它們被設(shè)計(jì)用于解決特定的子問題或者在特定的輸入數(shù)據(jù)分布下表現(xiàn)良好。每個(gè)專家模型都接收輸入數(shù)據(jù),并且輸出對(duì)應(yīng)的預(yù)測(cè)結(jié)果。
  • 門控網(wǎng)絡(luò)(Gating Network):門控網(wǎng)絡(luò)用于動(dòng)態(tài)地分配權(quán)重給各個(gè)專家模型。給定輸入數(shù)據(jù),門控網(wǎng)絡(luò)計(jì)算每個(gè)專家模型對(duì)于當(dāng)前輸入數(shù)據(jù)的相關(guān)性或者重要性。這些權(quán)重通常是通過softmax函數(shù)歸一化得到的,以確保它們的總和為1。
  • 混合操作(Mixture Operation):通過將每個(gè)專家模型的輸出與門控網(wǎng)絡(luò)計(jì)算得到的權(quán)重相乘并相加,可以得到最終的輸出。每個(gè)專家模型的輸出都被乘以對(duì)應(yīng)的權(quán)重,然后再相加,以產(chǎn)生最終的輸出。
  • 訓(xùn)練策略:MoE模型通常使用端到端的反向傳播算法進(jìn)行訓(xùn)練。在訓(xùn)練過程中,專家模型和門控網(wǎng)絡(luò)的參數(shù)都會(huì)被調(diào)整,以最小化模型在訓(xùn)練數(shù)據(jù)上的損失函數(shù)。門控網(wǎng)絡(luò)的訓(xùn)練目標(biāo)通常是最大化模型的整體性能,并且也可以通過額外的正則化策略來提高模型的泛化能力。

Mixture-of-Experts模型通過將多個(gè)專家模型組合在一起,并且通過門控網(wǎng)絡(luò)動(dòng)態(tài)地分配權(quán)重,可以提高模型的靈活性和適應(yīng)性,從而在處理復(fù)雜的輸入數(shù)據(jù)分布時(shí)取得更好的性能表現(xiàn)。

7)RLHF—人類反饋的強(qiáng)化學(xué)習(xí)(Reinforcement Learning from Human Feedback)

RLHF是一種機(jī)器學(xué)習(xí)一種方法和階段,為避免最終訓(xùn)練輸出的結(jié)果違背人類道德倫理、民俗習(xí)慣、社會(huì)規(guī)則和法律,在機(jī)器學(xué)習(xí)的最后階段結(jié)合來自人類的反饋和強(qiáng)化學(xué)習(xí)(RL),以指導(dǎo)和優(yōu)化人工智能模型的行為和決策。這種方法特別適用于在那些難以為機(jī)器提供明確、數(shù)學(xué)化的獎(jiǎng)勵(lì)函數(shù)的情況下,訓(xùn)練模型執(zhí)行復(fù)雜或高度專業(yè)化的任務(wù)。

在傳統(tǒng)的強(qiáng)化學(xué)習(xí)中,一個(gè)AI模型通過與環(huán)境互動(dòng),嘗試最大化其所獲得的累積獎(jiǎng)勵(lì)。這些獎(jiǎng)勵(lì)通常是預(yù)先定義好的,基于任務(wù)的目標(biāo)。然而,在許多實(shí)際應(yīng)用中(特別是生成式模型中),定義一個(gè)能夠有效引導(dǎo)學(xué)習(xí)過程的獎(jiǎng)勵(lì)函數(shù)是非常困難的。

RLHF通過以下步驟解決這個(gè)問題:

  1. 人類反饋:收集人類對(duì)AI行為的評(píng)估或偏好。這可以通過直接評(píng)分、選擇偏好(偏好排序兩個(gè)或多個(gè)選項(xiàng))或提供糾正性反饋的形式進(jìn)行。
  2. 建立獎(jiǎng)勵(lì)模型:使用這些人類反饋來訓(xùn)練一個(gè)獎(jiǎng)勵(lì)模型,該模型預(yù)測(cè)哪些行為或決策會(huì)獲得正面的人類評(píng)價(jià)。
  3. 強(qiáng)化學(xué)習(xí):利用這個(gè)獎(jiǎng)勵(lì)模型作為獎(jiǎng)勵(lì)函數(shù),采用強(qiáng)化學(xué)習(xí)算法訓(xùn)練AI模型。使其通過試錯(cuò)的方式學(xué)習(xí)在給定環(huán)境中如何行動(dòng),以最大化從獎(jiǎng)勵(lì)模型中獲得的獎(jiǎng)勵(lì)。

RLHF的優(yōu)點(diǎn)在于,它可以在沒有明確數(shù)學(xué)形式獎(jiǎng)勵(lì)函數(shù)的情況下訓(xùn)練AI模型,使其在復(fù)雜環(huán)境中作出更接近人類期望和價(jià)值觀的行為。這種方法被廣泛應(yīng)用于自然語(yǔ)言處理、游戲、機(jī)器人技術(shù)和其他需要復(fù)雜決策過程的領(lǐng)域。通過人類的直觀反饋,模型可以學(xué)習(xí)執(zhí)行抽象的、多樣化的任務(wù),同時(shí)減少不希望的行為或偏差的風(fēng)險(xiǎn)。

二、GPT的局限性

在當(dāng)前人工智能領(lǐng)域中,GPT系列大模型作為自然語(yǔ)言處理的重要里程碑,展現(xiàn)了令人矚目的文本生成和理解能力。然而,我們必須認(rèn)識(shí)到,盡管GPT系列模型的表現(xiàn)卓越,其固有的局限性并不代表通用人工智能(AGI)的終極實(shí)現(xiàn)。

首先,研究顯示,在復(fù)雜的邏輯推理和多步推斷任務(wù)中,GPT模型可能表現(xiàn)不佳。雖然GPT可以生成流暢的文本,但在需要深入邏輯判斷和跨領(lǐng)域推理的任務(wù)中,其表現(xiàn)可能有限。

復(fù)雜的邏輯推理和多步推斷任務(wù)要求模型能夠理解和操縱抽象概念、規(guī)則和關(guān)系。這些任務(wù)在人工智能領(lǐng)域中被視為挑戰(zhàn)性任務(wù),因?yàn)樗鼈冃枰P途邆涓呒?jí)的符號(hào)推理和邏輯推斷能力;GPT模型在語(yǔ)法和詞匯上表現(xiàn)優(yōu)秀,因其訓(xùn)練數(shù)據(jù)源自大規(guī)模文本語(yǔ)料庫(kù)。

然而,在需要邏輯推理和推斷的任務(wù)中,缺乏結(jié)構(gòu)化數(shù)據(jù)和標(biāo)簽可能限制了GPT的表現(xiàn),因而難以學(xué)習(xí)和理解抽象規(guī)則和邏輯關(guān)系;另一個(gè)挑戰(zhàn)是跨領(lǐng)域推理,在現(xiàn)實(shí)世界中,許多任務(wù)可能涉及多領(lǐng)域的知識(shí)和信息,而GPT這類模型在跨領(lǐng)域推理方面可能受制于其單一領(lǐng)域的訓(xùn)練數(shù)據(jù)和知識(shí)范圍,導(dǎo)致其推理能力受限。

其次,GPT模型在需要專業(yè)知識(shí)和精確推理的領(lǐng)域(如生物、醫(yī)學(xué)、金融、法律等)中面臨巨大挑戰(zhàn)。在專業(yè)領(lǐng)域中,模型需要準(zhǔn)確理解和運(yùn)用領(lǐng)域特有的知識(shí)和術(shù)語(yǔ),GPT等預(yù)訓(xùn)練模型可能無法完全掌握這些專業(yè)領(lǐng)域的復(fù)雜性和細(xì)節(jié),導(dǎo)致其在特定領(lǐng)域任務(wù)中表現(xiàn)不佳;在特定領(lǐng)域的任務(wù)中,若訓(xùn)練數(shù)據(jù)受限或缺乏專業(yè)領(lǐng)域相關(guān)的數(shù)據(jù),模型可能無法準(zhǔn)確學(xué)習(xí)和理解該領(lǐng)域的概念和規(guī)則;特定領(lǐng)域?qū)πg(shù)語(yǔ)和語(yǔ)境的極高的精確性要求,GPT等模型目前可能難以準(zhǔn)確處理這些領(lǐng)域的復(fù)雜信息和語(yǔ)言,導(dǎo)致理解和推理的準(zhǔn)確性受到影響。GPT等通用模型可能在更具挑戰(zhàn)性的專業(yè)領(lǐng)域任務(wù)中缺乏領(lǐng)域自適應(yīng)性,無法有效應(yīng)對(duì)領(lǐng)域內(nèi)的復(fù)雜問題和需求。

最后,從長(zhǎng)期發(fā)展來看,AGI的實(shí)現(xiàn)需要超越單一技術(shù)和單一領(lǐng)域的智能。AGI的實(shí)現(xiàn)要求模型能夠綜合利用不同感官數(shù)據(jù)和信息,包括視覺、聽覺、觸覺等多個(gè)感知層面。

GPT等模型雖在自然語(yǔ)言生成領(lǐng)域表現(xiàn)出色,但實(shí)現(xiàn)AGI需要整合多種感知數(shù)據(jù),并具備跨模態(tài)智能處理能力,這超出了目前單一模態(tài)智能的范疇。

AGI還需要具備認(rèn)知能力、規(guī)劃決策能力等高級(jí)智能,要求模型能夠思考未來、制定計(jì)劃以及做出決策,這遠(yuǎn)比單純的信息處理和生成更為復(fù)雜和綜合。

AGI還需要具備長(zhǎng)期記憶和持續(xù)學(xué)習(xí)的能力,以不斷積累和更新知識(shí),適應(yīng)不斷變化的環(huán)境和任務(wù)。

GPT等預(yù)訓(xùn)練模型可能在長(zhǎng)期記憶和持續(xù)學(xué)習(xí)方面存在挑戰(zhàn),因其主要用于靜態(tài)數(shù)據(jù)集的預(yù)訓(xùn)練。實(shí)現(xiàn)AGI需要模型能夠在廣泛領(lǐng)域和任務(wù)中表現(xiàn)出色,而不僅僅局限于特定任務(wù)或數(shù)據(jù)集。GPT等模型可能面臨面向普適性通用性的挑戰(zhàn),因其訓(xùn)練數(shù)據(jù)和任務(wù)較為單一和特定。

三、我們離AGI還有多遠(yuǎn)?

這個(gè)問題激發(fā)了無數(shù)學(xué)者和研究人員、未來主義者的想象。

隨著每一次AI技術(shù)的飛躍,這個(gè)話題都會(huì)被重新點(diǎn)燃,引起公眾的熱烈討論。

盡管我們?cè)谔囟I(lǐng)域內(nèi)的人工智能(如圖像識(shí)別、自然語(yǔ)言處理等)取得了顯著的進(jìn)展,但通用人工智能——一種具有廣泛認(rèn)知能力、能在各種任務(wù)上達(dá)到或超越人類水平的智能系統(tǒng)——仍然是一個(gè)遙遠(yuǎn)的目標(biāo)。

1. AGI的評(píng)價(jià)方法

評(píng)價(jià)AGI能力的量化指標(biāo)涉及多種方法,每種方法都嘗試從不同角度捕捉智能的某個(gè)方面。

以下是一些常見的評(píng)價(jià)方法:

  • 知識(shí)測(cè)驗(yàn)(如智商測(cè)試、學(xué)術(shù)考試等)用于評(píng)估知識(shí)水平和邏輯推理能力;
  • 專業(yè)技能測(cè)試(如編程、法律、醫(yī)學(xué))用于評(píng)估AGI在專業(yè)領(lǐng)域內(nèi)的知識(shí)和應(yīng)用能力;
  • 復(fù)雜游戲測(cè)試(如國(guó)際象棋、圍棋、星際爭(zhēng)霸等)用于評(píng)估策略制定、學(xué)習(xí)能力和適應(yīng)性;
  • 虛擬仿真環(huán)境(如OpenAI的Gym、DeepMind的Lab),通過模擬真實(shí)世界的復(fù)雜環(huán)境來測(cè)試AGI的適應(yīng)性和解決問題的能力;
  • 藝術(shù)創(chuàng)作評(píng)估AI生成藝術(shù)作品的原創(chuàng)性和審美價(jià)值;
  • 創(chuàng)新解決方案(設(shè)計(jì)、工程或科學(xué)領(lǐng)域),評(píng)估AGI提出新穎解決方案的能力;
  • 圖靈測(cè)試,通過判斷機(jī)器是否能在文本交流中讓人類誤以為是與另一人類交流,來評(píng)估其自然語(yǔ)言處理和生成能力;
  • 情感和社會(huì)交互,評(píng)估AGI理解和生成情感反應(yīng)的能力,以及在社交情境中的表現(xiàn);
  • 多任務(wù)性能,評(píng)估AGI在同時(shí)處理或快速切換不同任務(wù)時(shí)的表現(xiàn);
  • 學(xué)習(xí)遷移,評(píng)估AGI將在一個(gè)任務(wù)中學(xué)到的知識(shí)應(yīng)用到新任務(wù)的能力;
  • 復(fù)雜問題解決,通過解決需要廣泛知識(shí)和創(chuàng)造性思維的開放式問題來評(píng)估AGI的能力;
  • 實(shí)時(shí)決策制定,在變化的環(huán)境中,評(píng)估AGI進(jìn)行決策和適應(yīng)的能力;
  • 道德困境,通過模擬涉及倫理和道德抉擇的情境,評(píng)估AGI的判斷和決策過程;
  • 社會(huì)規(guī)范學(xué)習(xí),評(píng)估AGI理解和遵循人類社會(huì)規(guī)范的能力;
  • 綜合感知任務(wù),評(píng)估AGI整合視覺、聽覺等多種感知信息的能力。
  • 交互式任務(wù),在涉及多模態(tài)輸入(如圖像和文本)的任務(wù)中評(píng)估AGI的處理和響應(yīng)能力。

這些評(píng)價(jià)方法通常需要結(jié)合使用,以全面地衡量AGI的能力和性能,更好地反映AGI在模仿人類智能方面的進(jìn)步。

2. 技術(shù)挑戰(zhàn)

近年來,大型語(yǔ)言模型和多模態(tài)AI模型的發(fā)展讓我們對(duì)達(dá)到AGI的可能性有了更多的希望。例如,ChatGPT、Claude、Gemini等模型,其具備在多模態(tài)情境下理解和生成信息的能力,標(biāo)志著我們?cè)谀M人類的認(rèn)知和理解能力上邁出了重要一步。

然而,盡管這些模型在各自的領(lǐng)域內(nèi)表現(xiàn)出色,它們依然缺乏人類智能的靈活性和通用性。

這些模型在特定任務(wù)上的表現(xiàn)雖然令人印象深刻,但在面對(duì)未曾訓(xùn)練或完全不同類型的任務(wù)時(shí),其性能會(huì)大幅下降。

3. 理論和方法論上的挑戰(zhàn)

目前,我們尚未完全理解人類智能的工作原理,包括我們?nèi)绾螌W(xué)習(xí)新技能、如何進(jìn)行抽象思考,以及我們的智能是如何在如此廣泛的任務(wù)中展現(xiàn)出靈活性和適應(yīng)性的。沒有這些理論基礎(chǔ),我們很難設(shè)計(jì)出能模擬這些能力的AI系統(tǒng)。

此外,當(dāng)前的AI系統(tǒng)大多依賴大量數(shù)據(jù)進(jìn)行訓(xùn)練,而這種方法在達(dá)到真正的AGI時(shí)可能不再適用。

Yann LeCun(楊立昆)認(rèn)為智能行為的核心特征包括理解物理世界、記憶與檢索信息的能力、持久記憶、推理能力和規(guī)劃能力,而自回歸式大語(yǔ)言模型在這五個(gè)方面均表現(xiàn)不足或僅能實(shí)現(xiàn)初級(jí)功能,它們無法真正理解和模擬物理世界,不具備持續(xù)的記憶和深入的推理機(jī)制,也無法進(jìn)行有效的規(guī)劃。

4. 倫理和安全挑戰(zhàn)

一個(gè)具備廣泛智能和自主能力的系統(tǒng)可能會(huì)產(chǎn)生無法預(yù)測(cè)的行為,這對(duì)于確保這些系統(tǒng)能夠以符合人類價(jià)值觀和安全要求的方式行動(dòng)至關(guān)重要。如何設(shè)計(jì)這樣的系統(tǒng),以及如何確保它們的行為不會(huì)對(duì)人類或環(huán)境造成不利影響,是我們?cè)谶~向AGI的道路上必須面對(duì)的問題。

Geoffrey Hinton認(rèn)為,數(shù)字智能終將取代生物智能。在接受了海量網(wǎng)絡(luò)信息訓(xùn)練的AI會(huì)比人類更聰明,因而能夠輕易操縱人類——這是超級(jí)智能接管人類控制權(quán)的路徑之一。

5. 能源挑戰(zhàn)

通用人工智能(AGI)在運(yùn)行和發(fā)展過程中需要大量的電力支持,算力競(jìng)爭(zhēng)的背后是能源競(jìng)爭(zhēng)。

ChatGPT每天需要響應(yīng)大約2億個(gè)請(qǐng)求,其背后的GPT大語(yǔ)言模型(LLM)在訓(xùn)練和運(yùn)行過程中消耗了大量的電力。據(jù)估計(jì),ChatGPT每天消耗的電力超過50萬(wàn)度,相當(dāng)于1.7萬(wàn)個(gè)美國(guó)家庭的日均用電量。

而OpenAI CEO Altman就公開表示:人工智能行業(yè)正在走向能源危機(jī)。特斯拉CEO馬斯克此前預(yù)計(jì),AI下一階段將會(huì)是“缺電”。

在愛爾蘭,僅70個(gè)數(shù)據(jù)中心就消耗了全國(guó)14%的能源。到2030年,預(yù)計(jì)全球30-50%的生產(chǎn)電力將用于AI計(jì)算和冷卻。

四、最后

在人工智能領(lǐng)域中,通用人工智能(AGI)、大型語(yǔ)言模型(LLM)、Transformers、擴(kuò)散模型(Diffusion Models)和人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)等技術(shù)之間存在著緊密的聯(lián)系和相互作用,共同推動(dòng)這一領(lǐng)域的進(jìn)步。

AGI代表了AI的終極目標(biāo),即在各種任務(wù)和環(huán)境中展現(xiàn)出與人類類似的適應(yīng)性和靈活性。雖然我們距離實(shí)現(xiàn)AGI仍有很長(zhǎng)的路要走,但當(dāng)前的進(jìn)展和研究為這一終極目標(biāo)奠定了基礎(chǔ)。這些技術(shù)的融合和發(fā)展,不僅擴(kuò)展了我們對(duì)AI能力的理解,也為攻克復(fù)雜問題開辟了新途徑。

特別是,通過結(jié)合Transformers的模型架構(gòu),擴(kuò)散模型的生成能力,以及RLHF的細(xì)致調(diào)優(yōu),我們已經(jīng)能夠創(chuàng)建出更為高效和靈活的模型。這些模型在理解語(yǔ)言、生成內(nèi)容、解決問題等方面的能力越來越接近人類的思維模式。

隨著這些領(lǐng)域的不斷深入,我們對(duì)于實(shí)現(xiàn)AGI的路徑也將更加清晰,為未來的科技革命鋪平道路。

參考文獻(xiàn)

  • Devlin J, Chang M W, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018.
  • Ho J, Jain A, Abbeel P. Denoising diffusion probabilistic models[J]. Advances in neural information processing systems, 2020, 33: 6840-6851.
  • Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets[J]. Advances in neural information processing systems, 2014, 27.
  • Karras T, Aila T, Laine S, et al. Progressive growing of gans for improved quality, stability, and variation[J]. arXiv preprint arXiv:1710.10196, 2017.
  • Radford A, Narasimhan K, Salimans T, et al. Improving language understanding by generative pre-training[J]. 2018.
  • Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. Advances in neural information processing systems, 2017, 30.
  • Shazeer N, Mirhoseini A, Maziarz K, et al. Outrageously large neural networks: The sparsely-gated mixture-of-experts layer[J]. arXiv preprint arXiv:1701.06538, 2017.
  • Christiano P F, Leike J, Brown T, et al. Deep reinforcement learning from human preferences[J]. Advances in neural information processing systems, 2017, 30.
  • Ziegler D M, Stiennon N, Wu J, et al. Fine-tuning language models from human preferences[J]. arXiv preprint arXiv:1909.08593, 2019.

專欄作家

黃銳,人人都是產(chǎn)品經(jīng)理專欄作家。高級(jí)系統(tǒng)架構(gòu)設(shè)計(jì)師、資深產(chǎn)品經(jīng)理、多家大型互聯(lián)網(wǎng)公司顧問,金融機(jī)構(gòu)、高??妥芯繂T。主要關(guān)注新零售、工業(yè)互聯(lián)網(wǎng)、金融科技和區(qū)塊鏈行業(yè)應(yīng)用版塊,擅長(zhǎng)產(chǎn)品或系統(tǒng)整體性設(shè)計(jì)和規(guī)劃。

本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于 CC0 協(xié)議。

該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App