AI產(chǎn)品經(jīng)理的7堂必修課:必備的AI基礎(chǔ)知識(shí)
導(dǎo)語(yǔ):隨著AI產(chǎn)品近年在市場(chǎng)上的熱門,AI產(chǎn)品經(jīng)理也變得搶手了。然而入門AI產(chǎn)品經(jīng)理除了基本的技能外,還必須具備基礎(chǔ)的AI知識(shí)。本篇文章,作者將向我們分享基礎(chǔ)的AI知識(shí),助你入門了解AI行業(yè)。
一、三駕馬車
這些年大家都常常聽到人工智能有三大馬車,即:數(shù)據(jù)、算法和算力,其實(shí)這個(gè)是拆解任何一個(gè)人工智能項(xiàng)目或者是問(wèn)題非常有效的方法,大家務(wù)必記住這三個(gè)要素,缺一不可,我們后面的實(shí)戰(zhàn)章節(jié)會(huì)拿來(lái)反復(fù)進(jìn)行驗(yàn)證使用。我們接下來(lái)就從基礎(chǔ)理論看看這三大要素的組成。
1. 數(shù)據(jù)的構(gòu)成
數(shù)據(jù):任何AI模型訓(xùn)練都需要數(shù)據(jù),AI深度學(xué)習(xí)模型不可能無(wú)中生有。包括我們?nèi)祟惖母叩戎悄軐W(xué)習(xí)也需要有輸入,才能進(jìn)行輸出,因此數(shù)據(jù)就是AI模型的重中之重。
數(shù)據(jù)按照用途可分為:訓(xùn)練集(train set)、驗(yàn)證集(validation set)和測(cè)試集(test set)。
其中訓(xùn)練集占全部數(shù)據(jù)集的絕大部分,數(shù)量從萬(wàn)級(jí)到千萬(wàn)級(jí)甚至更多,且對(duì)于算法模型來(lái)說(shuō),一定是數(shù)據(jù)越多算法模型越好,即可以理解為算法跟人一樣“見多識(shí)廣”,見的數(shù)據(jù)多了自然模型更加魯棒和強(qiáng)大。
驗(yàn)證集主要用來(lái)調(diào)整模型參數(shù)從而選擇最優(yōu)模型,驗(yàn)證集可以理解成我們學(xué)習(xí)時(shí)候的教參書,用來(lái)驗(yàn)證我們是否對(duì)于所學(xué)習(xí)知識(shí)已經(jīng)掌握;但是最終用來(lái)評(píng)價(jià)模型的好壞是測(cè)試集,這部分?jǐn)?shù)據(jù)對(duì)于模型一定之前是”保密的”,可以理解對(duì)于模型要進(jìn)行一次“考試”。
考試范圍包含之前訓(xùn)練集的“知識(shí)點(diǎn)“,看看那其中訓(xùn)練集:驗(yàn)證集:測(cè)試集=6:2:2;驗(yàn)證集并不是必須的,因此訓(xùn)練集與測(cè)試集的比例一般為8:2。
數(shù)據(jù)按照來(lái)源可分為:公開數(shù)據(jù)集、自建數(shù)據(jù)集;
人工智能的快速發(fā)展與其開源的氛圍密不可分,很多大型的組織和機(jī)構(gòu)都愿意把其最新的研究結(jié)果的數(shù)據(jù)開源,供其他人共同研究、推進(jìn)學(xué)術(shù)進(jìn)步。
比如海外的google dataset search、kaggle、data.gov(美國(guó)政府)、各種國(guó)內(nèi)外的比賽賽事主辦方會(huì)開源數(shù)據(jù)集、包括有一些專業(yè)的公司做公開數(shù)據(jù)集的聚合業(yè)務(wù)。
對(duì)于自建數(shù)據(jù)集,分為兩部分:一是可以通過(guò)互聯(lián)網(wǎng)進(jìn)行爬取,另一方面可以進(jìn)行自行采集,除了組織周圍同事進(jìn)行小規(guī)模數(shù)據(jù)采集、通過(guò)已有產(chǎn)品埋點(diǎn)回流數(shù)據(jù),也可以通過(guò)找專業(yè)公司組織大規(guī)模的采集。
構(gòu)建自建數(shù)據(jù)集,需要產(chǎn)品經(jīng)理與算法同學(xué)一同構(gòu)建數(shù)據(jù)集的規(guī)格specification,即通過(guò)分析拆解目標(biāo)任務(wù),對(duì)數(shù)據(jù)集的構(gòu)成進(jìn)行MECE(互相獨(dú)立、完全窮盡)的拆解,為了更好的拆解,建議大家可以通過(guò)構(gòu)建思維導(dǎo)圖的方式來(lái)創(chuàng)建。如圖1:
人臉關(guān)鍵點(diǎn)數(shù)據(jù)集構(gòu)建要求
構(gòu)建完成數(shù)據(jù)集要求后,可以進(jìn)行數(shù)據(jù)集的試采,通過(guò)試采一個(gè)完整的被試者,來(lái)預(yù)估采集項(xiàng)目的完整周期,如果時(shí)間遠(yuǎn)遠(yuǎn)超于預(yù)期時(shí)間,是否可以考慮簡(jiǎn)化數(shù)據(jù)集的標(biāo)準(zhǔn)、多采集設(shè)備并行又或是減少采集人數(shù)規(guī)模、將數(shù)據(jù)采集項(xiàng)目分成兩期。
由于對(duì)于深度學(xué)習(xí)需要結(jié)構(gòu)化的數(shù)據(jù)進(jìn)行訓(xùn)練,因此我們采集完的數(shù)據(jù)還要同步進(jìn)行標(biāo)注。數(shù)據(jù)標(biāo)簽種類眾多,比如分類、拉框、注釋、標(biāo)記(畫點(diǎn))等等。標(biāo)注之后的結(jié)構(gòu)化數(shù)據(jù)輸入深度學(xué)習(xí)模型之中才可以進(jìn)行訓(xùn)練。
很多同學(xué)可能覺(jué)得這樣的操作前期成本太高了,是否可以不標(biāo)注就進(jìn)行訓(xùn)練呢?比如最近大火的自監(jiān)督學(xué)習(xí),自監(jiān)督學(xué)習(xí)的核心,在于如何自動(dòng)為數(shù)據(jù)產(chǎn)生標(biāo)簽。例如輸入一張圖片,把圖片隨機(jī)旋轉(zhuǎn)一個(gè)角度,然后把旋轉(zhuǎn)后的圖片作為輸入,隨機(jī)旋轉(zhuǎn)的角度作為標(biāo)簽。
再例如,把輸入的圖片均勻分割成3*3的格子,每個(gè)格子里面的內(nèi)容作為一個(gè)patch,隨機(jī)打亂patch的排列順序,然后用打亂順序的patch作為輸入,正確的排列順序作為label。類似這種自動(dòng)產(chǎn)生的標(biāo)注,完全無(wú)需人工參與。
但是目前大部分任務(wù),還是需要人類標(biāo)注(label)大量數(shù)據(jù)之后再送給機(jī)器進(jìn)行學(xué)習(xí)。所以之前很多人提到人工智能中都是“人工”這種說(shuō)法還是十分正確的。
但其實(shí)現(xiàn)在很多互聯(lián)網(wǎng)數(shù)據(jù)產(chǎn)生的過(guò)程中就自帶了標(biāo)簽,比如說(shuō)近些年很火的圖片社交網(wǎng)站Instagram,用戶上傳圖片、視頻的同時(shí)會(huì)增加很多#,#美食 #聚餐 #海灘等等,這些其實(shí)就是用戶自己手動(dòng)為圖片或者視頻打標(biāo)簽的過(guò)程,省去了統(tǒng)一再打一次標(biāo)簽的過(guò)程,Instagram的后臺(tái)模型就可以利用每天用戶上傳分享的海量數(shù)據(jù)對(duì)圖片、場(chǎng)景進(jìn)行分類、檢測(cè)、識(shí)別,甚至模型可以理解這張圖片代表了什么,看圖說(shuō)話。
反之亦然,可以根據(jù)用戶的一句話組織相應(yīng)的素材,一句話成片,圖文成片等。這里便是利用了眾包的思想,其實(shí)除了社交媒體之外,平常大家登陸網(wǎng)站輸入驗(yàn)證碼的時(shí)候會(huì)讓大家選擇下面哪張圖片包含“自行車”?其實(shí)也是一個(gè)人工標(biāo)簽不斷幫助模型訓(xùn)練的過(guò)程。類似的思路大家可以借鑒并融入到自己產(chǎn)品的設(shè)計(jì)中。
2. 算法
首先定義一下人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)之間的關(guān)系。
機(jī)器學(xué)習(xí)直接來(lái)源于早期的人工智能領(lǐng)域,機(jī)器學(xué)習(xí)可以定義為一種實(shí)現(xiàn)人工智能的方法,傳統(tǒng)的算法包括決策樹、聚類、貝葉斯分類、支持向量機(jī)、EM、Adaboost等等。從學(xué)習(xí)方法上來(lái)分,機(jī)器學(xué)習(xí)算法可以分為監(jiān)督學(xué)習(xí)(如分類問(wèn)題)、無(wú)監(jiān)督學(xué)習(xí)(如聚類問(wèn)題)、半監(jiān)督學(xué)習(xí)、集成學(xué)習(xí)、深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)。
而深度學(xué)習(xí)是實(shí)現(xiàn)機(jī)器學(xué)習(xí)的技術(shù),即人工智能>機(jī)器學(xué)習(xí)>深度學(xué)習(xí),最初的深度學(xué)習(xí)是利用深度神經(jīng)網(wǎng)絡(luò)來(lái)解決特征表達(dá)的一種學(xué)習(xí)過(guò)程。
深度神經(jīng)網(wǎng)絡(luò)本身并不是一個(gè)全新的概念,可大致理解為包含多個(gè)隱含層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。為了提高深層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果,人們對(duì)神經(jīng)元的連接方法和激活函數(shù)等方面做出相應(yīng)的調(diào)整。
提到算法,我們先了解下計(jì)算機(jī)視覺(jué)任務(wù)的分類包括以下種類:
- 目標(biāo)識(shí)別:物體識(shí)別是得到一個(gè)原始的圖像,任務(wù)是給出目標(biāo)位置和識(shí)別物體屬于哪個(gè)類,另外還有人臉識(shí)別,行為識(shí)別等;
- 三維重建:攝像機(jī)標(biāo)定,立體匹配;
- 圖像/視頻理解:根據(jù)給定圖像,給出描述文字等;
- 深度相機(jī):RGB-D相機(jī),例如手勢(shì)識(shí)別、骨骼跟蹤、增強(qiáng)現(xiàn)實(shí)等;
- 視覺(jué)導(dǎo)航:視覺(jué)SLAM,例如ORB-SLAM;
- 圖像分割:圖像分割是一項(xiàng)復(fù)雜的任務(wù),目標(biāo)是將每個(gè)像素映射到它的合法類,例如語(yǔ)義分割、實(shí)例分割。
而從深度學(xué)習(xí)來(lái)分類,更多的是基于模型的架構(gòu)進(jìn)行的區(qū)分,包括監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí):
其中監(jiān)督學(xué)習(xí)包括循環(huán)網(wǎng)絡(luò)RNN、CNN、DNN。
RNN適合應(yīng)用跟序列有關(guān)系的任務(wù),比如時(shí)間序列,預(yù)測(cè)股票行情,比如文本序列,其衍生的諸多變體在自然語(yǔ)言處理領(lǐng)域應(yīng)用廣泛,其中LSTM更是在NLP領(lǐng)域鼎鼎大名。
CNN的C代表卷積,是一種很好對(duì)目標(biāo)圖像降維的數(shù)學(xué)運(yùn)算,主要用于提取特征,因此很多圖像分類任務(wù)應(yīng)用較多。
DNN會(huì)在搜索中進(jìn)行應(yīng)用,可以對(duì)于轉(zhuǎn)化率進(jìn)行預(yù)估,這個(gè)數(shù)據(jù)是互聯(lián)網(wǎng)產(chǎn)品應(yīng)用頻率最高的一個(gè)指標(biāo),且其轉(zhuǎn)化率預(yù)估對(duì)應(yīng)的輸入特征包含各個(gè)不同域的特征。
如用戶域,寶貝域,query域等,各種特征的維度都能高達(dá)千萬(wàn),甚至上億級(jí)別,如何在模型中處理超高維度的特征,成為了一個(gè)亟待解決的問(wèn)題,如何考慮多維高階信息的同時(shí)兼顧計(jì)算量和效率,DNN是一個(gè)非常合適的方法。
深度神經(jīng)網(wǎng)絡(luò)通過(guò)構(gòu)造稀疏id特征的稠密向量表示,使得模型能有更好的泛化性,同時(shí),為了讓模型能更好的擬合大促期間商品特征數(shù)據(jù)的劇烈變化,在深度網(wǎng)絡(luò)的最后一層增加商品id類特征,id組合特征和實(shí)時(shí)的統(tǒng)計(jì)量特征,使得整個(gè)網(wǎng)絡(luò)同時(shí)兼顧泛化性和實(shí)時(shí)性的特點(diǎn)。
無(wú)監(jiān)督學(xué)習(xí)我們提一下最近非常火的GAN(生成對(duì)抗網(wǎng)絡(luò)),通過(guò)無(wú)監(jiān)督學(xué)習(xí)同時(shí)訓(xùn)練兩個(gè)模型,其內(nèi)在的原理可以化身為西方的博弈論或者是東方的道家思想,我還記得我上信息對(duì)抗的第一節(jié)課老教授就講了《道德經(jīng)》中的“反者道之動(dòng),弱者道之用”,這其中的內(nèi)涵讀者可以細(xì)品。
簡(jiǎn)單的說(shuō),GAN訓(xùn)練兩個(gè)網(wǎng)絡(luò):
- 生成網(wǎng)絡(luò)用于生成圖片使其與訓(xùn)練數(shù)據(jù)相似
- 判別式網(wǎng)絡(luò)用于判斷生成網(wǎng)絡(luò)中得到的圖片是否是真的是訓(xùn)練數(shù)據(jù)還是偽裝的數(shù)據(jù)。生成網(wǎng)絡(luò)一般有逆卷積層(deconvolutional layer)而判別網(wǎng)絡(luò)一般就是上文介紹的CNN。
具體方法可以參考下圖:
GAN網(wǎng)絡(luò)結(jié)構(gòu)示例
3. 算力
深度學(xué)習(xí)算法根據(jù)模型的大小以及最后實(shí)際應(yīng)用的場(chǎng)景會(huì)選擇部署在端側(cè)還是云側(cè)又或是端云結(jié)合的方案。
隨著智能手機(jī)不斷的發(fā)展,現(xiàn)在端側(cè)的算力也不斷提升,比如最新的高通驍龍888處理器,算力可以達(dá)到26TOPS,TOPS是算力的單位,即每秒鐘進(jìn)行1T(10的12次方)次操作。
而大家還有印象的是幾年前的英偉達(dá)顯卡還是2000G算力,換算一下只是2TOPS左右,因此可以看到摩爾定律發(fā)展下的半導(dǎo)體制程的進(jìn)步直接影響著深度學(xué)習(xí)的算力進(jìn)步。
比如說(shuō)自動(dòng)駕駛,特斯拉的每臺(tái)汽車搭載一個(gè)超算中心,具備144TOPS的算力,可以實(shí)時(shí)處理運(yùn)算各種復(fù)雜的路面情況,道路標(biāo)識(shí),檢測(cè)人物和各種車輛,這些是機(jī)器視覺(jué)的算法都依賴于強(qiáng)大的算力予以支持。
綜上,我們可知,端側(cè)的算力具備實(shí)時(shí)性好、安全性好(離線),但是很大程度上依賴于半導(dǎo)體處理的制程以及能效的利用。
比如說(shuō)移動(dòng)端設(shè)備手機(jī)上就不太可能配備一臺(tái)算力巨大的超算中心,最核心的一方面就是就是電量有限,算力越高相應(yīng)的能耗也越高,再一點(diǎn)越大的能耗對(duì)應(yīng)了著需要配備更大體積的電池和運(yùn)算單元,無(wú)論如何這對(duì)于人們?nèi)粘kS身攜帶的物品設(shè)定來(lái)講都不是十分合適;
因此人們就把這個(gè)算力單元放到了車上,尤其是新能源電車,有充沛的電力、足夠的空間、車身配備很多傳感器,平??梢砸贿叢杉瘮?shù)據(jù),一邊輸入算力單元進(jìn)行快速計(jì)算,同時(shí)還有一位經(jīng)驗(yàn)豐富的“人類老司機(jī)”進(jìn)行教學(xué)。
平時(shí)我們開車的行為:打方向盤、踩剎車、加速、變道,下雨天怎么駕駛、夜間、雪天、霧霾天如何駕駛等等都是對(duì)于深度學(xué)習(xí)模型進(jìn)行一次次人為“標(biāo)注”監(jiān)督訓(xùn)練的過(guò)程,如此往復(fù),車這個(gè)“智能體”就會(huì)不斷的迭代演進(jìn),直到可以替代人,完成自動(dòng)駕駛。
而以上就是特斯拉AI高級(jí)總監(jiān)Andrej Kaparthy在2019年的特斯拉發(fā)布會(huì)上提到“影子模式”(shadow mode),了解這背后原理的我當(dāng)時(shí)不禁感嘆特斯拉將機(jī)器視覺(jué)和深度學(xué)習(xí)的能力發(fā)揮到極致,在商業(yè)模式上也十分巧妙,將數(shù)據(jù)、算力和算法在一臺(tái)車上就形成了閉環(huán),關(guān)鍵是這個(gè)車還能進(jìn)化,越開越”聰明”。
沿著這個(gè)思路想下去,如果說(shuō)未來(lái)手機(jī)的算力和電力已經(jīng)到天花板(因?yàn)橹亓恳话阍?00g左右,屏幕尺寸6-7寸左右,算力上限和能耗上限可知),而車才是離我們最近的算力單元,那么未來(lái)真正了解你的是車,他可以存儲(chǔ)你日常行為的數(shù)據(jù),具備強(qiáng)大的算力可以不斷優(yōu)化模型,手機(jī)最后是否只是淪為一個(gè)車中心的延展傳感器,離你最近的那個(gè)。
這就很好解釋為什么蘋果以及國(guó)內(nèi)的華為等手機(jī)大廠都選擇紛紛躬身入局,卷入“造車運(yùn)動(dòng)”。未來(lái),如果不是特斯拉收編了手機(jī),就是手機(jī)廠商顛覆了特斯拉,這么講的話,我更看好前者。
講完端側(cè)的算力,我們?cè)诳聪略贫说乃懔Α?/strong>云端一般指大型的服務(wù)器及其集群,也就是我們平常講的”機(jī)房”?;谏衔奶岬降捏w積和能效,云端是完全沒(méi)有這方面限制的,甚至可以理解成理論上算力無(wú)上限的算力平臺(tái),只要機(jī)器夠多。云端常用來(lái)進(jìn)行模型的訓(xùn)練,而端測(cè)用來(lái)模型的部署與推理。
當(dāng)然,云端也可以進(jìn)行模型部署和推理,比如一些對(duì)于算力要求比較高的算法就會(huì)跑到云端,比如大家常用的語(yǔ)音助手,需要在聯(lián)網(wǎng)狀態(tài)下使用。云端優(yōu)勢(shì)是算力強(qiáng)大、方便部署迭代,可以做到訓(xùn)推一體,對(duì)于產(chǎn)品化來(lái)講非常的便捷無(wú)縫銜接,非常適合于互聯(lián)網(wǎng)的”快速迭代”模式。
但是缺點(diǎn)也比較顯著,比如對(duì)于網(wǎng)絡(luò)有強(qiáng)依賴性,安全和隱私保護(hù)一般。
且這個(gè)本質(zhì)上就是一個(gè)暴力美學(xué)的過(guò)程,通過(guò)量變來(lái)引發(fā)質(zhì)變,比如近年來(lái)廣受討論的GPT-3,他是一個(gè)具備1750億個(gè)參數(shù)的自然語(yǔ)言模型,該模型經(jīng)過(guò)了45TB的數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,并且在不進(jìn)行微調(diào)的情況下,可以在多個(gè)NLP基準(zhǔn)上達(dá)到最先進(jìn)的性能,訓(xùn)練這個(gè)模型需要355個(gè)GPU年,耗費(fèi)成本在百萬(wàn)-千萬(wàn)級(jí)別美金。
而能提供這些財(cái)力和算力的必須是頭部的大廠,不禁也感嘆連人工智能的世界、模型之間甚至更卷。
神經(jīng)網(wǎng)絡(luò)之父Geoffrey Hinton在GPT-3出現(xiàn)后,曾這樣感慨:“生命、宇宙和萬(wàn)物的答案,其實(shí)只是4.398萬(wàn)億個(gè)參數(shù)而已?!?/p>
就像是《新約??馬太福音》中所說(shuō)“凡有的,還要加倍給他使他多余;沒(méi)有的,要把他剩下的也奪走?!?/p>
講完云端模型,現(xiàn)在市面上還廣泛存在一種端云結(jié)合的部署方式,即取各家之所長(zhǎng),在端側(cè)模型進(jìn)行預(yù)處理,再把復(fù)雜的任務(wù)需要大量運(yùn)算的部分傳到云端,在云端計(jì)算完畢之后再返回到端側(cè)。
這種方式,有效的解決了信息隱私問(wèn)題,因?yàn)樯蟼鞯皆贫说臄?shù)據(jù)可以是經(jīng)過(guò)特征提取之后的數(shù)據(jù)對(duì)于人類來(lái)講并沒(méi)有任何意義但是對(duì)于機(jī)器來(lái)講可以進(jìn)行后續(xù)的計(jì)算。同時(shí),也解決了云端模型不斷迭代而端側(cè)推理部分迭代較慢的不均衡問(wèn)題。
端側(cè)模型、云端模型、端云結(jié)合模型我們?cè)诒緯牡谒恼?、第五章?huì)結(jié)合實(shí)際案例進(jìn)行講解。
二、常用用語(yǔ)
1. 泛化能力(generalization ability)
泛化能力是指機(jī)器學(xué)習(xí)算法對(duì)新鮮樣本的適應(yīng)能力,簡(jiǎn)而言之是在原有的數(shù)據(jù)集上添加新的數(shù)據(jù)集,通過(guò)訓(xùn)練輸出一個(gè)合理的結(jié)果。學(xué)習(xí)的目的是學(xué)到隱含在數(shù)據(jù)背后的規(guī)律,對(duì)具有同一規(guī)律的學(xué)習(xí)集以外的數(shù)據(jù),經(jīng)過(guò)訓(xùn)練的網(wǎng)絡(luò)也能給出合適的輸出,該能力稱為泛化能力。
2. 過(guò)擬合(over-fitting)
在機(jī)器學(xué)習(xí)中,模型的典型產(chǎn)出過(guò)程是由機(jī)器學(xué)習(xí)算法在訓(xùn)練集上進(jìn)行訓(xùn)練,希望得到的模型能夠在訓(xùn)練過(guò)程中不可見的驗(yàn)證集上表現(xiàn)良好。而當(dāng)引入相較數(shù)據(jù)集而言過(guò)多的參數(shù)時(shí),或使用相較數(shù)據(jù)集而言過(guò)于復(fù)雜的模型時(shí),則就出現(xiàn)了過(guò)擬合現(xiàn)象,違反了奧卡姆剃刀原則。
過(guò)擬合造成的一個(gè)惡果就包含上述所說(shuō)的泛化能力較差。其反義詞是欠擬合(主要原因是數(shù)據(jù)量較少)。
3. 魯棒性(robustness)
魯棒性亦稱健壯性、穩(wěn)健性、強(qiáng)健性,是系統(tǒng)的健壯性,它是在異常和危險(xiǎn)情況下系統(tǒng)生存的關(guān)鍵,是指系統(tǒng)在一定(結(jié)構(gòu)、大小)的參數(shù)攝動(dòng)下,維持某些性能的特性。
4. 超參數(shù)(hyperparameter)
超參數(shù)是在開始學(xué)習(xí)過(guò)程之前設(shè)置值的參數(shù)(初始參數(shù))。 相反,其他參數(shù)的值通過(guò)訓(xùn)練得出。
5. 主干網(wǎng)絡(luò)(backbone)
主干網(wǎng)絡(luò),用來(lái)做特征提取的網(wǎng)絡(luò),代表網(wǎng)絡(luò)的一部分,一般是用于前端提取圖片信息,生成特征圖feature map,供后面的網(wǎng)絡(luò)使用。
6. 時(shí)期(epoch)
時(shí)期,一個(gè)完整的數(shù)據(jù)集通過(guò)了神經(jīng)網(wǎng)絡(luò)一次并且返回了一次,這個(gè)過(guò)程稱為一個(gè)/次epoch。即,所有訓(xùn)練樣本在神經(jīng)網(wǎng)絡(luò)中都進(jìn)行了一次正向傳播?FP(forward propagation)和一次反向傳播BP(back propagation) 。簡(jiǎn)而言之,一個(gè)epoch就是將所有訓(xùn)練樣本訓(xùn)練一次的過(guò)程。
7. 組(batch)
batch size大小是一個(gè)超參數(shù),用于定義在更新內(nèi)部模型參數(shù)之前要處理的訓(xùn)練數(shù)據(jù)集樣本量。訓(xùn)練數(shù)據(jù)集可以分為一個(gè)或多個(gè)Batch(組)。
- 批量梯度下降:批量大小=訓(xùn)練集的大??;
- 隨機(jī)梯度下降:批量大小= 1;
- 小批量梯度下降:1 <批量大小<訓(xùn)練集的大小。
8. 階段(Stage)
階段,一般網(wǎng)絡(luò)分為one-stage和two-stage;即一個(gè)階段還是兩個(gè)階段;比如說(shuō)一張圖片直接生成分類結(jié)果和bounding box,這個(gè)就是one-stage;
比如輸入一張圖片,先進(jìn)行區(qū)域的建議,再將選擇的區(qū)域進(jìn)行分類,則分為two-stage,整個(gè)任務(wù)由兩個(gè)網(wǎng)絡(luò)完成,下一個(gè)網(wǎng)絡(luò)的輸入是上一個(gè)網(wǎng)路輸出的結(jié)果;當(dāng)然,根據(jù)實(shí)際任務(wù)的區(qū)別,也會(huì)有three-stage的整體網(wǎng)絡(luò)設(shè)計(jì)。
9. 準(zhǔn)確率(Accuracy)
對(duì)于分類任務(wù)來(lái)講,我們對(duì)于分類結(jié)果有如下表示/定義。
那么準(zhǔn)確率ACC=(TP+TN)/(TP+TN+FP+FN)。
10. 精確率(Precision)
P=TP/(TP+FP),表示被分為正例的示例中實(shí)際為正例的比例。
11. 召回率(Recall)
recall=TP/(TP+FN)。
12. 綜合評(píng)價(jià)指標(biāo)(F-Measure)
P和R指標(biāo)有時(shí)候會(huì)出現(xiàn)的矛盾的情況,這樣就需要綜合考慮他們,最常見的方法就是F-Measure(又稱為F-Score)。F-Measure是Precision和Recall加權(quán)調(diào)和平均:
F=(α^2+1)*P*R/α^2(P+R)
我們常用的是當(dāng)α=1時(shí),即為F1=2*P*R/(P+R);
13. ROC(Receiver Operating Characteristic)
ROC曲線是以假正率(FP_rate)和真正率(TP_rate)為軸的曲線,ROC曲線下面的面積我們叫做AUC,如下圖所示:
ROC曲線
(1)曲線與FP_rate軸圍成的面積(記作AUC)越大,說(shuō)明性能越好,即圖上L2曲線對(duì)應(yīng)的性能優(yōu)于曲線L1對(duì)應(yīng)的性能。即:曲線越靠近A點(diǎn)(左上方)性能越好,曲線越靠近B點(diǎn)(右下方)曲線性能越差。
(2)A點(diǎn)是最完美的performance點(diǎn),B處是性能最差點(diǎn)。
(3)位于C-D線上的點(diǎn)說(shuō)明算法性能和random猜測(cè)是一樣的–如C、D、E點(diǎn)。位于C-D之上(即曲線位于白色的三角形內(nèi))說(shuō)明算法性能優(yōu)于隨機(jī)猜測(cè)–如G點(diǎn),位于C-D之下(即曲線位于灰色的三角形內(nèi))說(shuō)明算法性能差于隨機(jī)猜測(cè)–如F點(diǎn)。
(4)雖然ROC曲線相比較于Precision和Recall等衡量指標(biāo)更加合理,但是其在高不平衡數(shù)據(jù)條件下的的表現(xiàn)仍然過(guò)于理想,不能夠很好的展示實(shí)際情況。
14. GT基準(zhǔn)(ground truth)
在有監(jiān)督學(xué)習(xí)中,數(shù)據(jù)是有標(biāo)注的,以(x, t)的形式出現(xiàn),其中x是輸入數(shù)據(jù),t是標(biāo)注.正確的t標(biāo)注是ground truth。而ground truth是人類按照一定標(biāo)準(zhǔn)進(jìn)行定義的基準(zhǔn)。
15. IOU(Intersection over Union)
- 1是ground-truth的bounding box(綠色框框)
- 2是預(yù)測(cè)的bounding box(紅色框框)IOU輸出為值在[0,1]之間的數(shù)字。
IOU = 兩個(gè)矩形交集的面積/兩個(gè)矩形的并集面積常用于目標(biāo)檢測(cè)(物體、人臉、人體等等),來(lái)衡量模型檢測(cè)的精確率。
16. 特征(feature)
為了讓計(jì)算機(jī)掌握人類理解的知識(shí)需要構(gòu)筑一個(gè)由簡(jiǎn)單概念組成的多層連接網(wǎng)絡(luò)來(lái)定義復(fù)雜對(duì)象,計(jì)算機(jī)通過(guò)對(duì)這個(gè)網(wǎng)絡(luò)的迭代計(jì)算與訓(xùn)練后,可以掌握這個(gè)對(duì)象的特征,這種方法叫做深度學(xué)習(xí),網(wǎng)絡(luò)學(xué)習(xí)到的東西叫做特征。特征是一種數(shù)據(jù)的表達(dá)。
對(duì)于特征的要求是informative(富有信息量),discriminative(有區(qū)分性)和independent(獨(dú)立)的。
Feature有很多種特性和分類:Feature可以是Linear(線性),也可以是Non-linear(非線性)的;Feature可以是Fixed(固定的),也可以是Adaptive(自適應(yīng)變化的),甚至feature都可以不是數(shù)字的(numerical)。
17. 損失函數(shù)(loss function)或者loss
損失函數(shù)是用來(lái)估量模型的預(yù)測(cè)值f(x)與真實(shí)值Y的不一致程度,它是一個(gè)非負(fù)實(shí)值函數(shù),通常使用L(Y, f(x))來(lái)表示,損失函數(shù)越小,模型的魯棒性就越好。我們模型訓(xùn)練的過(guò)程應(yīng)該是一個(gè)loss function逐漸變小的過(guò)程,這樣模型才能不斷收斂。
作者:大仙河? 微信號(hào) :大仙河知識(shí)學(xué)堂。專注分享關(guān)于人工智能產(chǎn)品、智能硬件、哲學(xué)的思考。
本文由 @大仙河? 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載
題圖來(lái)自Unsplash,基于 CC0 協(xié)議
專欄作家
大仙河,公眾號(hào):大仙河知識(shí)學(xué)堂,人人都是產(chǎn)品經(jīng)理專欄作家。7年AI產(chǎn)品相關(guān)經(jīng)驗(yàn),專注AI產(chǎn)品化(元宇宙、數(shù)字人、全息通信等)領(lǐng)域,致力于構(gòu)建人工智能學(xué)術(shù)和工業(yè)界的橋梁。
本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
本文為人人都是產(chǎn)品經(jīng)理《原創(chuàng)激勵(lì)計(jì)劃》出品。
題圖來(lái)自Unsplash,基于CC0協(xié)議
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。
普通產(chǎn)品經(jīng)理表示好多都略懂, 轉(zhuǎn)型的路上該如何走
哇,這些全是我研究生搞得東西,想問(wèn)除了這些想入坑AI產(chǎn)品還需要學(xué)什么呢(小白一個(gè))
好文章~
現(xiàn)在是普通產(chǎn)品經(jīng)理,想做AI產(chǎn)品經(jīng)理,請(qǐng)問(wèn)需要看些什么技術(shù)書籍來(lái)了解AI,簡(jiǎn)單的好入門的適合沒(méi)有AI背景的產(chǎn)品經(jīng)理看的技術(shù)書,有推薦的嗎?
如果真的要推薦一本書的話,產(chǎn)品經(jīng)理進(jìn)階:100個(gè)案例搞懂人工智能(博文視點(diǎn)出品)和華為的modelarts人工智能應(yīng)用開發(fā)指南,還不錯(cuò);我當(dāng)時(shí)在京東上買了AI產(chǎn)品經(jīng)理相關(guān)的所有書籍 基本上對(duì)于整個(gè)行業(yè)有了初步的了解;當(dāng)然平常在工作中也會(huì)自己總結(jié)歸納方法,沉淀在了我公眾號(hào)上的AI產(chǎn)品經(jīng)理的歷史文章。此外,你可以看看一些ai相關(guān)的公眾號(hào)、機(jī)器之心/量子位等等,了解一些行業(yè)動(dòng)態(tài),同時(shí)拓展技術(shù)視角,這樣可以幫助從技術(shù)的維度進(jìn)一步思考ai方面的問(wèn)題
很干貨了,不過(guò)有些內(nèi)容沒(méi)太看懂,還是需要真正實(shí)踐才能了解
作者你好,我想問(wèn)一下AI產(chǎn)品經(jīng)理是產(chǎn)品經(jīng)理的一個(gè)方向嗎?我是AI研究方向的研究生,想就業(yè)做產(chǎn)品經(jīng)理相關(guān)內(nèi)容。
是的,你如果上招聘網(wǎng)上可以看到很多公司都在招聘ai產(chǎn)品經(jīng)理。
這不就是我研究生研究的東西嗎
所以來(lái)做ai產(chǎn)品經(jīng)理呀~