時(shí)下產(chǎn)品經(jīng)理入行AI的技術(shù)分解
![](http://image.woshipm.com/wp-files/img/84.jpg)
本文著重講解:AI的技術(shù)范圍?時(shí)下有哪些落地的AI技術(shù)?各自的優(yōu)缺點(diǎn)是什么?產(chǎn)品經(jīng)理視角應(yīng)該知道的技術(shù)和切入的角度?
隨著大數(shù)據(jù)的累積,AI迅猛發(fā)展,希望了解AI的人,期待從事AI產(chǎn)品經(jīng)理工作的人也越來(lái)越多。
但是擺在希望從事AI產(chǎn)品經(jīng)理工作的人面前的第一件事是:AI的技術(shù)范圍?時(shí)下有哪些落地的AI技術(shù)?各自的優(yōu)缺點(diǎn)是什么?產(chǎn)品經(jīng)理視角應(yīng)該知道的技術(shù)和切入的角度?
本篇重點(diǎn)解答以上問(wèn)題。
一、產(chǎn)品經(jīng)理對(duì)AI技術(shù)理解
AI的發(fā)展已有近七十年的歷史,AI在技術(shù)實(shí)現(xiàn)上可歸類(lèi)為六種途徑,即符號(hào)主義、連接主義、學(xué)習(xí)主義、行為主義、進(jìn)化主義和群體主義。
六種途徑并非涇渭分明,它們只是從不同的角度提出了解決方案,如學(xué)習(xí)主義就用到了人工神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)。產(chǎn)品經(jīng)理理解的AI應(yīng)該是廣義范疇。
目前今日頭條估值高達(dá)350億美金,今日頭條系產(chǎn)品的快速發(fā)展主要特征是對(duì)AI和機(jī)器學(xué)習(xí)的應(yīng)用。
時(shí)下流行的機(jī)器學(xué)習(xí)以及深度學(xué)習(xí)算法,實(shí)際上是符號(hào)主義、連接主義以及行為主義理論的進(jìn)一步拓展。
對(duì)于機(jī)器學(xué)習(xí)的理解,筆者認(rèn)為:產(chǎn)品經(jīng)理可以從三個(gè)問(wèn)題入手——即機(jī)器學(xué)什么、機(jī)器怎么學(xué)、機(jī)器做什么?
首先,機(jī)器學(xué)習(xí)需要學(xué)習(xí)的內(nèi)容是能夠表征此項(xiàng)任務(wù)的函數(shù),即能夠?qū)崿F(xiàn)人們需要的輸入和輸出的映射關(guān)系。從信息論的角度來(lái)看,其學(xué)習(xí)的目標(biāo)是確定兩個(gè)狀態(tài)空間內(nèi)所有可能取值之間的關(guān)系,使得熵盡可能最低。熵越低信息越有序。
其次,機(jī)器怎么學(xué)。要實(shí)現(xiàn)學(xué)習(xí)目標(biāo),就要教給機(jī)器一套評(píng)判的方法,而不同于告訴機(jī)器每個(gè)具體步驟如何操作的傳統(tǒng)方法,這需要對(duì)機(jī)器描述過(guò)程演進(jìn)為對(duì)機(jī)器描述結(jié)果。
從數(shù)學(xué)角度來(lái)看,就是為機(jī)器定義一個(gè)合適的損失函數(shù),能夠合理量化真實(shí)結(jié)果和訓(xùn)練結(jié)果的誤差,并將之反饋給機(jī)器繼續(xù)作迭代訓(xùn)練。
最后,機(jī)器學(xué)習(xí)究竟要做什么,其實(shí)主要做三件事——即分類(lèi)(Classification)、回歸(Regression)和聚類(lèi)(Clustering)。其中分類(lèi)和回歸屬于監(jiān)督學(xué)習(xí)的范疇,而聚類(lèi)則屬于非監(jiān)督學(xué)習(xí)的范疇。
目前多數(shù)人工智能落地應(yīng)用的背后,都是通過(guò)對(duì)現(xiàn)實(shí)問(wèn)題抽象成相應(yīng)的數(shù)學(xué)模型,分解為這三類(lèi)基本任務(wù)的有機(jī)組合,并對(duì)其進(jìn)行建模求解的過(guò)程。
機(jī)器學(xué)習(xí)的產(chǎn)品過(guò)程演示:
二、時(shí)下AI熱點(diǎn)算法分類(lèi)
這里,我們首先討論當(dāng)前的三大最常見(jiàn)的機(jī)器學(xué)習(xí)任務(wù)及其常用算法。
1. 回歸
回歸是一種用于連續(xù)型數(shù)值變量預(yù)測(cè)和建模的監(jiān)督學(xué)習(xí)算法,回歸任務(wù)的特征是具有數(shù)值型目標(biāo)變量的標(biāo)注數(shù)據(jù)集。
回歸算法有很多種,其中最為常用的算法主要有四種:
- 是(正則化)線性回歸,它最簡(jiǎn)的形式是用一個(gè)連續(xù)的超平面來(lái)擬合數(shù)據(jù)集;
- 是回歸樹(shù)(集成方法),該方法又稱(chēng)為決策樹(shù),通過(guò)將數(shù)據(jù)集重復(fù)分割成不同的分支來(lái)最大化每次分離的信息增益,從而讓回歸樹(shù)很自然地學(xué)到非線性關(guān)系,集成方法包括隨機(jī)森林(RF)或梯度提升樹(shù)(GBM);
- 是最鄰近算法;
- 是深度學(xué)習(xí)。
2. 分類(lèi)
分類(lèi)算法用于分類(lèi)變量建模及預(yù)測(cè)的監(jiān)督學(xué)習(xí)算法,許多回歸算法都有其對(duì)應(yīng)的分類(lèi)形式,分類(lèi)算法往往適用于類(lèi)別(或其可能性)的預(yù)測(cè),而非數(shù)值。
其中最為常用的算法主要有五種:
- (正則化)邏輯回歸:邏輯回歸通過(guò)邏輯函數(shù)將預(yù)測(cè)映射到0到1的區(qū)間,因此預(yù)測(cè)值可被視為某一類(lèi)別的概率。
- 分類(lèi)樹(shù)(集成方法):對(duì)應(yīng)于回歸樹(shù)的分類(lèi)算法是分類(lèi)樹(shù)。通常,它們都是指決策樹(shù),更為嚴(yán)謹(jǐn)?shù)恼f(shuō)法是“分類(lèi)回歸樹(shù)”——也就是非常有名的CART算法。
- 支持向量機(jī):支持向量機(jī)使用一個(gè)名為核函數(shù)的技巧,來(lái)將非線性問(wèn)題變換為線性問(wèn)題,其本質(zhì)是計(jì)算兩個(gè)觀測(cè)數(shù)據(jù)的距離。支持向量機(jī)算法所尋找的是能夠最大化樣本間隔的決策邊界,因此又被稱(chēng)為大間距分類(lèi)器。
- 樸素貝葉斯:基于條件概率和計(jì)數(shù)的簡(jiǎn)單算法,其本質(zhì)是一個(gè)概率表,通過(guò)訓(xùn)練數(shù)據(jù)來(lái)更新其中的概率。它預(yù)測(cè)新觀察值的過(guò)程,就是根據(jù)樣本的特征值在概率表中來(lái)尋找最為可能的類(lèi)別。被稱(chēng)為“樸素”的原因是其核心的特征條件獨(dú)立性假設(shè)(例如:每一項(xiàng)輸入特征都相互獨(dú)立)在現(xiàn)實(shí)中幾乎是不成立的。
- 深度學(xué)習(xí)方法。
3. 聚類(lèi)
聚類(lèi)算法基于數(shù)據(jù)內(nèi)部結(jié)構(gòu)來(lái)尋找樣本自然族群(集群)的無(wú)監(jiān)督學(xué)習(xí)任務(wù),使用案例包括用戶(hù)畫(huà)像、電商物品聚類(lèi)、社交網(wǎng)絡(luò)分析等。
用戶(hù)電商物品需求聚類(lèi)分析圖:
其中最為常用的算法主要有四種:
- K均值:基于樣本點(diǎn)間的幾何距離來(lái)度量聚類(lèi)的通用目的算法。由于集群圍繞在聚類(lèi)中心,結(jié)果會(huì)接近于球狀并具有相似的大小。
- 仿射傳播:基于兩個(gè)樣本點(diǎn)之間的圖形距離來(lái)確定集群,其結(jié)果傾向于更小且大小不等的集群。
- 分層/層次:主要完成層次聚類(lèi)的目標(biāo)。
- DBSCAN:基于密度的聚類(lèi)算法,它將樣本點(diǎn)的密集區(qū)域組成集群;其最新進(jìn)展是HDBSCAN,它允許集群的密度可變。
在機(jī)器學(xué)習(xí)領(lǐng)域內(nèi),兩個(gè)最為重要的概念是維度及特征選取。其中“維(Dimensionality)”通常指數(shù)據(jù)集中的特征數(shù)量(即輸入變量的個(gè)數(shù)),而特征選取是從你的數(shù)據(jù)集中過(guò)濾掉不相關(guān)或冗余的特征。
特征選?。‵eature Selection)主要包括四種方法:
- 方差閾值:摒棄掉觀測(cè)樣本那些觀測(cè)值改變較小的特征——即它們的方差小于某個(gè)設(shè)定的閾值,這樣的特征價(jià)值極小。
- 相關(guān)性閾值:去掉那些高度相關(guān)的特征(這些特征的特征值變化與其他特征非常相似),它們提供的是冗余信息。
- 遺傳算法:可用于不同任務(wù)的一大類(lèi)算法的統(tǒng)稱(chēng)。它們受進(jìn)化生物學(xué)與自然選擇的啟發(fā),結(jié)合變異與交叉,在解空間內(nèi)進(jìn)行高效的遍歷搜索。
- 逐步搜索:逐步搜索是一個(gè)基于序列式搜索的監(jiān)督式特征選取算法,它有兩種形式:前向搜索和反向搜索。
特征選取與特征提取不同,其關(guān)鍵區(qū)別在于:特征選取是從原特征集中選取一個(gè)子特征集,而特征提取則是在原特征集的基礎(chǔ)上重新構(gòu)造出一些(一個(gè)或多個(gè))全新的特征。
特征提?。‵eature Extraction)主要用來(lái)創(chuàng)造一個(gè)新的、較小的特征集,但仍能保留絕大部分有用的信息。
主要包括三種方法:
(1)主成分分析:非監(jiān)督式算法,它用來(lái)創(chuàng)造原始特征的線性組合。新創(chuàng)造出來(lái)的特征他們之間都是正交的,也就是沒(méi)有關(guān)聯(lián)性。
具體來(lái)說(shuō),這些新特征是按它們本身變化程度的大小來(lái)進(jìn)行排列的。第一個(gè)主成分代表了你的數(shù)據(jù)集中變化最為劇烈的特征,第二個(gè)主成分代表了變化程度排在第二位的特征,以此類(lèi)推。
(2)線性判別分析:監(jiān)督式學(xué)習(xí)方式,它必須使用有標(biāo)記的數(shù)據(jù)集。
(3)自編碼機(jī):人工神經(jīng)網(wǎng)絡(luò),它是用來(lái)重新構(gòu)建原始輸入的,關(guān)鍵是在隱含層搭建比輸入層和輸出層更少數(shù)量的神經(jīng)元。這樣,隱含層就會(huì)不斷學(xué)習(xí)如何用更少的特征來(lái)表征原始圖像。
機(jī)器學(xué)習(xí)還包括密度估計(jì)(Density Estimation)和異常檢測(cè)(Abnormal Detection)的任務(wù),在此略過(guò)。總的來(lái)說(shuō)歸類(lèi)機(jī)器學(xué)習(xí)算法一向都非常棘手,由于其背后實(shí)現(xiàn)原理、數(shù)學(xué)原理等存在差異,其分類(lèi)標(biāo)準(zhǔn)存在多個(gè)維度,而常見(jiàn)的分類(lèi)標(biāo)準(zhǔn)主要包括:生成/判別、參數(shù)/非參數(shù)、監(jiān)督/非監(jiān)督等。
三、深度學(xué)習(xí)大熱的背后力量
筆者認(rèn)為:時(shí)下深度學(xué)習(xí)大熱,是因?yàn)镈L(DeepLearning)在機(jī)器學(xué)習(xí)算法中主要有以下三點(diǎn)。
1. 深度學(xué)習(xí)與傳統(tǒng)產(chǎn)品之間的區(qū)別
傳統(tǒng)產(chǎn)品在語(yǔ)音識(shí)別、物體識(shí)別方面無(wú)法有效展開(kāi)應(yīng)用,其重要原因之一就是:這類(lèi)算法無(wú)法使用語(yǔ)音及圖像的高維度數(shù)據(jù)(High-dimensional Data)在高維空間學(xué)習(xí)復(fù)雜的函數(shù),這類(lèi)高維空間通常也意味著對(duì)算力的極大消耗,即使算力極為豐富的現(xiàn)階段也無(wú)法有效滿(mǎn)足其算力需求。
因此,深度學(xué)習(xí)方法應(yīng)運(yùn)而生。傳統(tǒng)產(chǎn)品算法所面臨的問(wèn)題被稱(chēng)作維度詛咒(Curse of Dimensionality),高維度數(shù)據(jù)的參數(shù)設(shè)置需求隨著變量的增加呈指數(shù)型增長(zhǎng),對(duì)計(jì)算能力提出了極大挑戰(zhàn),近乎無(wú)法完成。
而深度學(xué)習(xí)采用多層調(diào)參,層層收斂的方式,將參數(shù)數(shù)量始終控制在一個(gè)較為合理的水平,使得原本不可計(jì)算的模型可運(yùn)算了。
其理解如圖所示:
2. 深度神經(jīng)網(wǎng)絡(luò)具有完備性
從理論上來(lái)說(shuō),深度神經(jīng)網(wǎng)絡(luò)可以表征任何函數(shù),因此深度神經(jīng)網(wǎng)絡(luò)可以通過(guò)不同的參數(shù)及網(wǎng)絡(luò)結(jié)構(gòu),對(duì)任意函數(shù)進(jìn)行擬合,排除了其無(wú)法學(xué)習(xí)到復(fù)雜函數(shù)的可能性。
3. 深度學(xué)習(xí)的特征選取完備
深度學(xué)習(xí)具有自動(dòng)學(xué)習(xí)特征的能力,這也是深度學(xué)習(xí)又叫無(wú)監(jiān)督特征學(xué)習(xí)(Unsupervised Feature Learning)的原因。從深度學(xué)習(xí)模型中選擇某一神經(jīng)層的特征后,就可以用來(lái)進(jìn)行最終目標(biāo)模型的訓(xùn)練,而不需要人為參與特征選取。
四、產(chǎn)品經(jīng)理應(yīng)該了解的深度學(xué)習(xí)算法應(yīng)用
首先:算法
AI算法從專(zhuān)家系統(tǒng)至特征工程到深度學(xué)習(xí)這個(gè)過(guò)程中,人工參與在逐漸減少,而機(jī)器工作在逐漸增加,深度學(xué)習(xí)算法主要包括兩個(gè)方面。
(1)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)
卷積神經(jīng)網(wǎng)絡(luò)是近年發(fā)展起來(lái),并引起廣泛重視的一種高效識(shí)別方法。時(shí)下CNN已經(jīng)成為眾多科學(xué)領(lǐng)域的研究熱點(diǎn)之一。
K.Fukushima在1980年提出的新識(shí)別機(jī)是卷積神經(jīng)網(wǎng)絡(luò)的第一個(gè)實(shí)現(xiàn)網(wǎng)絡(luò),隨后,具有代表性的研究成果是Alexander和Taylor提出的“改進(jìn)認(rèn)知機(jī)”,該方法綜合了各種改進(jìn)方法的優(yōu)點(diǎn)并避免了耗時(shí)的誤差反向傳播。
一般CNN的基本結(jié)構(gòu)包括兩層:
1)特征提取層:每個(gè)神經(jīng)元的輸入與前一層的局部接受域相連,并提取該局部的特征。一旦該局部特征被提取后,它與其它特征間的位置關(guān)系也隨之確定下來(lái)。
2)特征映射層:網(wǎng)絡(luò)的每個(gè)計(jì)算層由多個(gè)特征映射組成,每個(gè)特征映射是一個(gè)平面,平面上所有神經(jīng)元的權(quán)值相等。特征映射結(jié)構(gòu)采用sigmoid函數(shù)作為卷積網(wǎng)絡(luò)的激活函數(shù),使得特征映射具有位移不變性。
此外,由于一個(gè)映射面上的神經(jīng)元共享權(quán)值,因而減少了網(wǎng)絡(luò)自由參數(shù)的個(gè)數(shù)。卷積神經(jīng)網(wǎng)絡(luò)中的每一個(gè)卷積層都緊跟著一個(gè)用來(lái)求局部平均與二次提取的計(jì)算層,這種特有的兩次特征提取結(jié)構(gòu)減小了特征分辨率。
CNN主要用來(lái)識(shí)別位移、縮放及其他形式扭曲不變性的二維圖形。由于CNN的特征檢測(cè)層通過(guò)訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí),所以在使用CNN時(shí),避免了顯示的特征抽取,而隱式地從訓(xùn)練數(shù)據(jù)中進(jìn)行學(xué)習(xí)。
再者由于同一特征映射面上的神經(jīng)元權(quán)值相同,所以網(wǎng)絡(luò)可以并行學(xué)習(xí),這也是卷積網(wǎng)絡(luò)相對(duì)于神經(jīng)元彼此相連網(wǎng)絡(luò)的一大優(yōu)勢(shì)。
卷積神經(jīng)網(wǎng)絡(luò)以其局部權(quán)值共享的特殊結(jié)構(gòu),在語(yǔ)音識(shí)別和圖像處理方面有著獨(dú)特的優(yōu)越性,其布局更接近于實(shí)際的生物神經(jīng)網(wǎng)絡(luò)。權(quán)值共享降低了網(wǎng)絡(luò)的復(fù)雜性,特別是多維輸入向量的圖像,可以直接輸入網(wǎng)絡(luò)這一特點(diǎn),避免了特征提取和分類(lèi)過(guò)程中數(shù)據(jù)重建的復(fù)雜度。
(2)遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)
在實(shí)際應(yīng)用中,我們會(huì)遇到很多的多序列形數(shù)據(jù),如:自然語(yǔ)言處理問(wèn)題中的單詞、語(yǔ)音處理中每幀的聲音信號(hào)、每天股票價(jià)格的時(shí)間序列數(shù)據(jù)等。
以某自然語(yǔ)言處理公司產(chǎn)品為例:
為了建模序列問(wèn)題,RNN引入了隱狀h(hidden state)的概念。一個(gè)RNN網(wǎng)絡(luò)中可以存在一個(gè)或多個(gè)隱狀態(tài),計(jì)算時(shí)每一步使用的參數(shù)都是一樣的,即每個(gè)步驟的參數(shù)都是共享的,這是RNN的重要特點(diǎn)之一。
同時(shí)需要注意的是:RNN網(wǎng)絡(luò)的輸入和輸出序列必須是等長(zhǎng)的。由于這個(gè)限制的存在,經(jīng)典RNN的試用范圍比較小,但也有一些問(wèn)題適合經(jīng)典的RNN結(jié)構(gòu)建模,如:計(jì)算視頻中每一幀的分類(lèi)標(biāo)簽。
因?yàn)橐獙?duì)每一幀進(jìn)行機(jī)選,一次輸入和輸出序列等長(zhǎng),又如:輸入為字符,輸出為下一個(gè)字符的概率,著名的用于生成文章、詩(shī)歌甚至是代碼的Char RNN(The Unreasonable Effectiveness of Recurrent Neural Networks)就是一個(gè)很好的例子。
當(dāng)我們要處理的問(wèn)題輸入是一個(gè)序列,輸出是一個(gè)單獨(dú)的值而不是序列的時(shí)候,需要對(duì)RNN網(wǎng)絡(luò)中最后一個(gè)h進(jìn)行輸出變化即可完成,這種結(jié)構(gòu)通常用來(lái)處理序列分類(lèi)問(wèn)題。
如:輸入一段文字判別它所屬的類(lèi)別;輸入一個(gè)句子判斷其情感傾向;輸入一段視頻并判斷它的類(lèi)別等等。對(duì)于輸入不是序列而輸出為序列的情況,只需要在序列開(kāi)始時(shí)進(jìn)行輸入計(jì)算或把輸入信息作為每個(gè)階段的輸入即可。
這種網(wǎng)絡(luò)結(jié)構(gòu)可以處理的問(wèn)題包括兩方面:
- 一是從圖像生成文字,此時(shí)輸入的是圖像的特征,而輸出的序列是一段句子;
- 二是從類(lèi)別生成語(yǔ)音或音樂(lè)等。
RNN最重要的一個(gè)變種是N輸入M輸出,這種結(jié)構(gòu)又叫做Encoder-Decoder模型,也可稱(chēng)之為Seq2Seq模型。實(shí)際生產(chǎn)生活中我們遇到的大部分問(wèn)題序列都是不等長(zhǎng)的,如:機(jī)器翻譯中源語(yǔ)言和目標(biāo)語(yǔ)言中的句子往往沒(méi)有相同的長(zhǎng)度。
為此Encoder-Decoder結(jié)構(gòu)會(huì)先將輸入數(shù)據(jù)編碼成一個(gè)上下文向量C,得到C的方式有多種,最簡(jiǎn)單的方法就是把Encoder的最后一個(gè)隱狀態(tài)賦值給C,還可以對(duì)最后的隱狀態(tài)做一個(gè)變換得到C,也可以對(duì)所有的隱狀態(tài)做變換。
在得到C后,就用另一個(gè)RNN網(wǎng)絡(luò)對(duì)其解碼,這部分RNN網(wǎng)絡(luò)被稱(chēng)為Decoder,具體做法就是將C當(dāng)做之前的初始狀態(tài)輸入到Decoder網(wǎng)絡(luò)中。
由于這種Encoder-Decoder結(jié)構(gòu)不限制輸入和輸出的序列長(zhǎng)度,因此應(yīng)用范圍廣泛,常見(jiàn)應(yīng)用包括:
- 機(jī)器翻譯:Encoder-Decoder的最經(jīng)典應(yīng)用是在機(jī)器翻譯領(lǐng)域最先提出的;
- 文本摘要:輸入是一段文本序列,輸出是這段文本序列的摘要序列;
- 閱讀理解:將輸入的文章和問(wèn)題分別編碼,再對(duì)其進(jìn)行解碼得到問(wèn)題的答案;
- 語(yǔ)音識(shí)別:輸入是語(yǔ)音信號(hào)序列,輸出是文字序列。
在Encoder-Decoder結(jié)構(gòu)中,Encoder把所有的輸入序列都編碼成一個(gè)統(tǒng)一的語(yǔ)義特征C再解碼。因此,C中必須包含原始序列中的所有信息,它的長(zhǎng)度就成了限制模型性能的瓶頸。
如:機(jī)器翻譯問(wèn)題,當(dāng)需要翻譯的句子較長(zhǎng)時(shí),一個(gè)C可能存不下那么多信息,就會(huì)造成翻譯精度的下降。而Attention機(jī)制通過(guò)在每個(gè)時(shí)間輸入不同的C來(lái)解決這個(gè)問(wèn)題,每一個(gè)C會(huì)自動(dòng)去選取與當(dāng)前所要輸出的結(jié)果最合適的上下文信息。
其次:深度學(xué)習(xí)(DL)有其不足之處
以上從一名入行AI產(chǎn)品經(jīng)理的視角,簡(jiǎn)要介紹了深度學(xué)習(xí)CNN及RNN兩類(lèi)網(wǎng)絡(luò)的基本原理及應(yīng)用場(chǎng)景,雖然其在多種識(shí)別、感知任務(wù)中表現(xiàn)優(yōu)異。
但筆者實(shí)踐中發(fā)現(xiàn)DL也存在著以下三方面的不足:
(1)數(shù)據(jù)基礎(chǔ)問(wèn)題:我們?cè)趯?shí)際生產(chǎn)生活中所收集到的數(shù)據(jù)往往都是小數(shù)據(jù),而不是大數(shù)據(jù)。比如說(shuō):我們手機(jī)上的個(gè)人數(shù)據(jù),在教育、醫(yī)療、基因的檢測(cè)與實(shí)驗(yàn)、學(xué)生測(cè)驗(yàn)、客服問(wèn)答上的數(shù)據(jù),都是小數(shù)據(jù)。
所以只有實(shí)現(xiàn)從大數(shù)據(jù)向小數(shù)據(jù)遷移的通用模型,才能真正幫助更多的領(lǐng)域用上人工智能,這是人工智能的普及性問(wèn)題,但基于大數(shù)據(jù)迭代的深度學(xué)習(xí)模型無(wú)法勝任小數(shù)據(jù)場(chǎng)景業(yè)務(wù)。
例如:當(dāng)筆者在給AI+領(lǐng)域做AI賦能產(chǎn)品咨詢(xún)?cè)O(shè)計(jì)的時(shí)候,搭建的Call out機(jī)器人構(gòu)建完Fintech領(lǐng)域,這個(gè)架構(gòu)的知識(shí)庫(kù)到互聯(lián)網(wǎng)教育領(lǐng)域需要重新搭建。
(2)模型可靠性問(wèn)題:深度學(xué)習(xí)模型非常脆弱,稍加移動(dòng)、離開(kāi)現(xiàn)有的場(chǎng)景數(shù)據(jù),它的效果就會(huì)降低,因此深度學(xué)習(xí)模型的可靠性是一個(gè)重要問(wèn)題。
對(duì)機(jī)器學(xué)習(xí)來(lái)說(shuō),由于訓(xùn)練數(shù)據(jù)和實(shí)際應(yīng)用數(shù)據(jù)存在區(qū)別,訓(xùn)練出來(lái)的模型被用于處理它沒(méi)有見(jiàn)過(guò)的數(shù)據(jù)時(shí),效果就會(huì)大打折扣。而緩解這一問(wèn)題的辦法,正是遷移學(xué)習(xí),它能把可靠性提升一個(gè)臺(tái)階。
(3)應(yīng)用上的問(wèn)題:特別是機(jī)器學(xué)習(xí)模型在應(yīng)用個(gè)性化方面的問(wèn)題。比如:在手機(jī)上,在推薦信息、服務(wù)的時(shí)候,它要適用于個(gè)人的行為。
因?yàn)槿魏蝹€(gè)人的數(shù)據(jù)都是小數(shù)據(jù),個(gè)性化的問(wèn)題就是如何把云端的通用模型適配到終端的小數(shù)據(jù)上,讓它也能工作。這就是遷移學(xué)習(xí)比較適合的事情,幫助機(jī)器學(xué)習(xí)從云端往移動(dòng)端遷移。
例如:Siri是一款云端通用型軟體機(jī)器人,但是Siri并不能完全基于筆者本人的工作、生活提供工作生活的個(gè)性化建議,這里需要解決的問(wèn)題是——如何把云端大數(shù)據(jù)情況下的場(chǎng)景,切換到個(gè)性化的本地落地產(chǎn)品。
五、AI技術(shù)產(chǎn)品經(jīng)理落地的角度
AI領(lǐng)域的機(jī)器學(xué)習(xí)、深度學(xué)習(xí)技術(shù)是一個(gè)無(wú)線逼近的極限。產(chǎn)品經(jīng)理時(shí)下了解AI技術(shù)以后,一個(gè)關(guān)鍵責(zé)任是落地產(chǎn)品,時(shí)下切入AI產(chǎn)品的重點(diǎn)角度是如何在AI技術(shù)本身隨著算法完善、數(shù)據(jù)豐富、算力增長(zhǎng)進(jìn)行中,交付符合用戶(hù)心理預(yù)期的產(chǎn)品。
這里不僅僅是AI技術(shù)問(wèn)題,更是產(chǎn)品經(jīng)理捕捉人性的能力。
產(chǎn)品經(jīng)理入行AI產(chǎn)品經(jīng)理,需要提升自己的兩個(gè)能力:
- 一個(gè)是對(duì)AI技術(shù)的認(rèn)知能力;
- 一個(gè)是捕捉人性甄別需求的能力。
認(rèn)知技術(shù)能力,決定產(chǎn)品經(jīng)理能不能利用技術(shù)的無(wú)線逼近;判斷需求能力,決定產(chǎn)品經(jīng)理能否在時(shí)下的AI技術(shù)水平下交互符合用戶(hù)人性的產(chǎn)品。
這種能力需要我們持續(xù)學(xué)習(xí),畢竟一款產(chǎn)品的成功是一家企業(yè)成功的代表!
如果你想系統(tǒng)化入門(mén)AI產(chǎn)品經(jīng)理,掌握AI產(chǎn)品經(jīng)理的落地工作方法,戳這里>http://996.pm/7bjab
#專(zhuān)欄作家#
連詩(shī)路,公眾號(hào):LineLian。人人都是產(chǎn)品經(jīng)理專(zhuān)欄作家,《產(chǎn)品進(jìn)化論:AI+時(shí)代產(chǎn)品經(jīng)理的思維方法》一書(shū)作者,前阿里產(chǎn)品專(zhuān)家,希望與創(chuàng)業(yè)者多多交流。
本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來(lái)自PEXELS,基于CC0協(xié)議
AI產(chǎn)品經(jīng)理和數(shù)據(jù)科學(xué)家底層技術(shù)是一樣的~
沒(méi)有做過(guò)技術(shù)的產(chǎn)品經(jīng)理,還真不一定能看懂里面的專(zhuān)業(yè)術(shù)語(yǔ)和計(jì)算邏輯。
剛剛好接到一個(gè)機(jī)器人自動(dòng)應(yīng)答系統(tǒng)的研究,試下從這些方面入手
你微信多少一起研究