如何轉(zhuǎn)型AI產(chǎn)品經(jīng)理?基礎(chǔ)概念篇
隨著 AI 技術(shù)的快速發(fā)展,越來越多的產(chǎn)品經(jīng)理開始考慮轉(zhuǎn)型為 AI 產(chǎn)品經(jīng)理,但復(fù)雜的 AI 概念和技術(shù)術(shù)語往往讓人望而卻步。本文將為你梳理人工智能領(lǐng)域的基礎(chǔ)概念,希望能幫到大家。
你能正確區(qū)分它們之間的關(guān)聯(lián)嗎?
比如人工智能與機(jī)器學(xué)習(xí)、深度學(xué)習(xí)到底是什么關(guān)系?
深度學(xué)習(xí)與監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí),又是什么關(guān)系?
分類、回歸、聚類、降維跟算法又有什么關(guān)系?
卷積神經(jīng)網(wǎng)絡(luò)(即CNN)跟循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、對(duì)抗神經(jīng)網(wǎng)絡(luò)(GAN)有什么區(qū)別?
TensorFlow、PyTorch跟Bert、GPT是什么關(guān)系?GPT跟ChatGPT呢?
等等。
對(duì)于小白來說,單純這些概念,足以讓人眼花繚亂,目眩神怡,更不用說轉(zhuǎn)型成為AI產(chǎn)品經(jīng)理。
所以,今天就簡(jiǎn)單分享一些人工智能相關(guān)的基礎(chǔ)概念——來自一位小白(即本人)的學(xué)習(xí)總結(jié)。
三代不同技術(shù)路線:專家系統(tǒng)、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)
專家系統(tǒng)跟機(jī)器學(xué)習(xí)是人工智能的“兩個(gè)兒子”(即它們屬于“兄弟倆”),而深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的“兒子”。
人工智能早期,因數(shù)據(jù)、算力、技術(shù)等局限性,讓專家系統(tǒng)這類以人工編碼規(guī)則和邏輯的技術(shù)路線,受到大家的“萬千寵愛”,而機(jī)器學(xué)習(xí)則一直“備受冷落”。
直至深度學(xué)習(xí)這個(gè)“兒子”在2010年前后的突然爆發(fā),才讓這個(gè)分支,成為了人工智能領(lǐng)域的“掌上明珠”。
深度學(xué)習(xí):模型、預(yù)訓(xùn)練模型、學(xué)習(xí)范式、算法、框架
當(dāng)深度學(xué)習(xí)成為人工智能領(lǐng)域,集萬千寵愛于一身的“掌上明珠”后,所有的不同概念就不約而同地進(jìn)入到了我們的日常生活中。
我把它們從不同維度、不同作用進(jìn)行分類,以便于讓你更好理解——假設(shè)你是AI小白的話。
咱們先說模型——它相當(dāng)于人工智能的“大腦”。
深度學(xué)習(xí)的基礎(chǔ)是模仿人類的大腦,而大腦的核心是神經(jīng)網(wǎng)絡(luò),它是由1700多億個(gè)神經(jīng)元所組成。如前文《如何轉(zhuǎn)型為AI產(chǎn)品經(jīng)理?思維篇》所分享的赫布學(xué)習(xí)理論所說:當(dāng)一個(gè)神經(jīng)元(前突觸細(xì)胞)持續(xù)或重復(fù)刺激另一個(gè)神經(jīng)元(后突觸細(xì)胞)時(shí),兩個(gè)神經(jīng)元之間的傳遞效能增加,形成一個(gè)細(xì)胞回路,大腦就會(huì)記住這兩個(gè)事物之間的聯(lián)系,我們也就學(xué)會(huì)了。
簡(jiǎn)單來說,你的大腦(即神經(jīng)網(wǎng)絡(luò))就是你學(xué)習(xí)、決策與行動(dòng)的模型,而人工智能也有自己的“大腦”(即模型)。
目前深度學(xué)習(xí)領(lǐng)域的有“模型四兄弟”(即卷積神經(jīng)網(wǎng)絡(luò)(即CNN)跟循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、對(duì)抗神經(jīng)網(wǎng)絡(luò)(GAN)、自注意力機(jī)制(Transformer))。
它們出身各異,都有自己的“前世今生”,也有自己的局限性,甚至產(chǎn)生了兄弟之間的“手足自殘”的狀況(如Transformer代替RNN)。
目前國(guó)內(nèi)市面上的大模型,幾乎采取的模型都是Transformer,只是針對(duì)性的進(jìn)行了調(diào)優(yōu)或增強(qiáng)。比如文心一言是基于百度的ERNIE大模型技術(shù),結(jié)合了Transformer架構(gòu)和知識(shí)增強(qiáng)技術(shù);通義千問是基于Transformer-XL進(jìn)行改進(jìn)支持多輪對(duì)話和多模態(tài)理解能力等。
第二,預(yù)訓(xùn)練模型——它相當(dāng)于讓人工智能的“大腦”提前完成了“預(yù)習(xí)”,我們可以叫它為“天才大腦”——即在出生時(shí)就自帶大量知識(shí)。
2018年是預(yù)訓(xùn)練模型的井噴之年,我們目前所熟悉的預(yù)訓(xùn)練模型都發(fā)生在那年。它們是:ELMo(2018年2月)→ ULMFiT(2018年5月)→ GPT-1(2018年6月)→ BERT(2018年10月)→ GPT-2(2019)→ GPT-3(2020)。
它們都屬于自然語言理解(NLP)領(lǐng)域的預(yù)訓(xùn)練模型,相當(dāng)于提前把相關(guān)的知識(shí)進(jìn)行了預(yù)先學(xué)習(xí),讓模型不只是“空殼”般的網(wǎng)絡(luò)。
它們的演進(jìn)邏輯是:靜態(tài)詞向量 → 動(dòng)態(tài)上下文(ELMo) → 遷移學(xué)習(xí)(ULMFiT) → 生成式預(yù)訓(xùn)練(GPT) → 雙向理解(BERT) → 大模型時(shí)代(GPT-3)→ 模型規(guī)模持續(xù)擴(kuò)大(如GPT-4)→ 多模態(tài)融合(文本+圖像+語音,如GPT 4o)。
比如ELMo引入了上下文詞向量,ULMFiT推動(dòng)了遷移學(xué)習(xí)在NLP中的應(yīng)用,GPT展示了自回歸預(yù)訓(xùn)練的潛力,BERT通過雙向Transformer和掩碼任務(wù)取得了突破,而GPT-3則展示了大規(guī)模模型的強(qiáng)大生成能力。
第三,學(xué)習(xí)范式——它是人工智能的學(xué)習(xí)模式或方法,類比于你用什么樣的方式方法進(jìn)行學(xué)習(xí)。
人工智能領(lǐng)域主要有四種學(xué)習(xí)范式:監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)。
它們的演進(jìn)脈絡(luò)是:從規(guī)則驅(qū)動(dòng)(專家系統(tǒng))→ 監(jiān)督學(xué)習(xí)(數(shù)據(jù)驅(qū)動(dòng))→ 無監(jiān)督/強(qiáng)化學(xué)習(xí)(探索自主性)→ 混合范式(半監(jiān)督、自監(jiān)督)。
比如專家系統(tǒng)是依賴人類專家,提前預(yù)設(shè)所有規(guī)則,監(jiān)督學(xué)習(xí)則是以標(biāo)記數(shù)據(jù)進(jìn)行驅(qū)動(dòng)學(xué)習(xí),無監(jiān)督學(xué)習(xí)是不依賴標(biāo)記數(shù)據(jù),自主進(jìn)行聚類/降維分析,半監(jiān)督學(xué)習(xí)則是依賴少部分標(biāo)記數(shù)據(jù)和大量未標(biāo)記數(shù)據(jù)學(xué)習(xí),強(qiáng)化學(xué)習(xí)是通過行為的獎(jiǎng)勵(lì)或懲罰進(jìn)行自主學(xué)習(xí)等。
第四,任務(wù)類型——它是人工智能要解決的問題類型,類比于你學(xué)習(xí)的目的是要解決哪類問題。
人工智能領(lǐng)域的常見任務(wù)有四類:分類、回歸、聚類、降維。其中分類和回歸屬于監(jiān)督學(xué)習(xí)類,而聚類跟降低屬于非監(jiān)督學(xué)習(xí)類。
不同的任務(wù)類型對(duì)應(yīng)不同應(yīng)用場(chǎng)景,對(duì)應(yīng)也有不同的算法來實(shí)現(xiàn)。
比如區(qū)分不同的圖像(即圖像分類),看它是小貓,還是小狗,則任務(wù)類型就是分類;
或根據(jù)客戶的基礎(chǔ)信息、使用網(wǎng)站信息等,將客戶進(jìn)行細(xì)分后,對(duì)應(yīng)進(jìn)行定制化的營(yíng)銷活動(dòng)推薦,則任務(wù)類型就是聚類。
第五,算法——它是人工智能用于解決問題的“工具”。
不同的任務(wù)需要不同的算法,就像你去干不同的活兒,也需要不同的工具組合一樣。
比如分類任務(wù),結(jié)果可能是離散的,則可采取的算法有:決策樹、支持向量機(jī)(SVM)、隨機(jī)森林等;
如果是聚類任務(wù),則可采取的算法有:K均值、層次聚類等;
如果是回歸任務(wù),則可采取的算法有:線性回歸、決策樹回歸等。
最后,框架——它是人工智能的“地基”。
你的模型、預(yù)訓(xùn)練模型、學(xué)習(xí)范式等,都依賴它作為你的基礎(chǔ),類比于你的日常工作,可能都需要用電腦一樣。
我們常見的深度學(xué)習(xí)框架有兩個(gè):TensorFlow、PyTorch。
TensorFlow是由 Google 開發(fā)的開源深度學(xué)習(xí)框架,主要用于構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型。它支持分布式計(jì)算和大規(guī)模數(shù)據(jù)處理,適合工業(yè)級(jí)應(yīng)用和大規(guī)模分布式訓(xùn)練。
PyTorch是Meta(即Facebook)開發(fā)的開源深度學(xué)習(xí)框架,以其動(dòng)態(tài)計(jì)算圖和靈活性著稱,適合快速原型開發(fā)和學(xué)術(shù)研究。它有兩個(gè)的關(guān)鍵子庫(kù):
- TorchVision:專注于計(jì)算機(jī)視覺(即CV)任務(wù),提供了豐富的數(shù)據(jù)集加載器、預(yù)處理工具和模型架構(gòu);
- TorchText:專注于自然語言處理(即NLP)任務(wù),提供了文本數(shù)據(jù)的加載、預(yù)處理和分詞等功能。
同時(shí),還有一個(gè)Hugging Face Transformers屬于“樣板間”,它是一個(gè)基于 PyTorch 和 TensorFlow 的自然語言處理庫(kù),提供了大量預(yù)訓(xùn)練模型(如 BERT、GPT、RoBERTa 等),支持多種 NLP 任務(wù)。
它通過封裝 PyTorch 和 TensorFlow 的 API,簡(jiǎn)化了模型的加載、訓(xùn)練和部署過程,并支持跨框架的模型轉(zhuǎn)換,以及提供了豐富的工具和接口,如 transformers 庫(kù),用于加載預(yù)訓(xùn)練模型并進(jìn)行微調(diào)。
目前國(guó)內(nèi)的大模型廠家,絕大多數(shù)都是基于PyTorch框架(如智譜清言、百川智能、云雀、DeepSeek等),或者兼容PyTorch框架(如通義千問),而只有極少數(shù)是完全自研(如文心一言是自研的PaddlePaddle)。
寫在最后
人工智能所涉及的名詞、概念非常多,今天總結(jié)了一些比較常見且容易混淆的概念,希望對(duì)你有所啟發(fā)。當(dāng)然,由于我自身知識(shí)的局限,如有不正確之處,還請(qǐng)多多指教。
我們用幾句話,簡(jiǎn)單總結(jié)今天所講到的概念:
- 人工智能是一個(gè)大家族,專家系統(tǒng)跟機(jī)器學(xué)習(xí)是家族的“兄弟倆”,而深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的“兒子”。
- 人工智能的模型是“大腦”,分CNN、RNN、GAN、Transformer。現(xiàn)在主流AI產(chǎn)品,基本都采取的是Transformer模型。
- 人工智能的預(yù)訓(xùn)練模型是“天才大腦”,讓“大腦”在出生時(shí),就自帶大量的知識(shí)。比如ELMo、 ULMFiT、 GPT、BERT等,都屬于預(yù)訓(xùn)練模型。
- 人工智能的學(xué)習(xí)范式是“學(xué)習(xí)方法”,保證讓“大腦”進(jìn)行有效學(xué)習(xí),成長(zhǎng)為自主決策的“人”。比如監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)都是不同的學(xué)習(xí)方法而已。
- 人工智能的目的是解決問題,而一般常見的有四類任務(wù):分類、回歸、聚合、降維。同時(shí),它們又對(duì)應(yīng)有N種不同的算法,負(fù)責(zé)解決問題。
- 人工智能一般是需要有基礎(chǔ)框架做“地基”的。
比如TensorFlow/PyTorch都是深度學(xué)習(xí)的“地基”,而它們還提供了對(duì)應(yīng)的“裝修材料”(比如TorchVision/TorchText就是PyTorch的“裝修材料”),以及對(duì)應(yīng)裝修完成的“樣板間”(比如Hugging Face就是TensorFlow/PyTorch的“樣板間”,提供了豐富的預(yù)訓(xùn)練模型以及API接口)。
專欄作家
邢小作,微信公眾號(hào):產(chǎn)品方法論集散地,人人都是產(chǎn)品經(jīng)理專欄作家。一枚在線教育的產(chǎn)品,關(guān)注互聯(lián)網(wǎng)教育,喜歡研究用戶心理。
本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自 Unsplash,基于CC0協(xié)議
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。
- 目前還沒評(píng)論,等你發(fā)揮!