【入門科普】必了解的 20 個(gè) AI 術(shù)語(yǔ)解析(上)

0 評(píng)論 1073 瀏覽 11 收藏 9 分鐘

AI時(shí)代到來(lái),作為職場(chǎng)人的我們,或許可以了解一些AI術(shù)語(yǔ)名詞。這篇文章里,作者就介紹了一些概念,不妨來(lái)看看。

本文專為非技術(shù)背景的AI愛好者設(shè)計(jì),旨在深入淺出地介紹AI的基礎(chǔ)概念和關(guān)鍵技術(shù),從最基礎(chǔ)的邏輯回歸到復(fù)雜的Transformer模型,帶您一步步解鎖AI技術(shù)的奧秘。

一、邏輯回歸

如果你想通過人工智能判斷某人是否會(huì)患糖尿病,則邏輯回歸可以通過綜合分析用戶的年齡、體重、胰島素水平等等來(lái)給出一個(gè)0~1的概率值,如果閾值設(shè)定為0.7,則高于0.7的我們就歸類為高風(fēng)險(xiǎn)人群,以便更早期的干預(yù)和管理風(fēng)險(xiǎn)。

二、線性回歸

邏輯回歸解決的是0到1的概率問題,而很多時(shí)候是我們需要具體的值,比如你在擺攤賣冰激凌,你注意到溫度越高,你賣出去的冰激凌越多。

線性回歸就像是你用尺子和鉛筆在歷史銷售數(shù)據(jù)的散點(diǎn)圖表上畫一條直線,盡量讓這條線貼近所有的銷售點(diǎn)(溫度是x,銷售額是y)。這樣,你就可以用這條線預(yù)測(cè),在任何給定溫度下,你大概能賣多少冰激凌。

三、多元多項(xiàng)式回歸

你一定發(fā)現(xiàn)了在前文冰激凌案例中,很顯然溫度對(duì)收入的影響并不是直線而是一個(gè)曲線,并且也不止溫度這一個(gè)自變量。多元多項(xiàng)式回歸就是一種可以綜合考慮多個(gè)X自變量并且能得出非線性關(guān)系的機(jī)器學(xué)習(xí)算法。比如訓(xùn)練一個(gè)評(píng)估房?jī)r(jià)的模型,那么自變量就有:面積、房齡、距離地鐵站距離、樓層數(shù)等等,自變量越多,模型越能去模擬真實(shí)世界。

四、決策樹

本文前三節(jié)都是基于簡(jiǎn)單的數(shù)學(xué)公式的模型,這些模型要求輸入數(shù)據(jù)是數(shù)值型,這意味著在處理性別、城市、疾病類別等非數(shù)值型時(shí),需要進(jìn)行數(shù)值轉(zhuǎn)化的預(yù)處理,這增加了算法復(fù)雜度,造成過擬合等問題。

決策樹可以直接處理分類特征,比如訓(xùn)練一個(gè)診斷心臟病類型的算法模型,我們搭建有很多決策點(diǎn)比如:患者的胸痛類型、心電圖結(jié)果,這些決策點(diǎn)就構(gòu)成了一個(gè)決策樹,每個(gè)葉節(jié)點(diǎn)代表一個(gè)特定的心臟病診斷。需要注意的是決策樹和前三種算法并不是互斥關(guān)系,決策樹的葉節(jié)點(diǎn)上可以包含獨(dú)立的算法模型。

五、隨機(jī)森林

就像醫(yī)生之間對(duì)于同一個(gè)癥狀會(huì)有不同的疾病診斷一樣,對(duì)于同一個(gè)問題會(huì)無(wú)數(shù)種決策樹方式,如果醫(yī)生用投票的形式來(lái)最終決定是哪一個(gè)疾病診斷,這種診斷的準(zhǔn)確性往往比一個(gè)醫(yī)生的準(zhǔn)確率高很多,這種集成多顆決策樹的模型構(gòu)建方式,叫做隨機(jī)森林。

為什么叫“隨機(jī)”森林呢?好比每個(gè)醫(yī)生都是一個(gè)決策樹,就算他們是從一個(gè)學(xué)校培養(yǎng)出來(lái)的,但他們個(gè)人接觸到的病例樣本不同,個(gè)人性格傾向于保守還是樂觀也不同,這種隨機(jī)性讓每一個(gè)決策樹結(jié)構(gòu)都不同,所以被稱之為隨機(jī)森林。

六、聚類

在機(jī)器學(xué)習(xí)中訓(xùn)練模型就好比是用“大量已知的y和x”去倒推出在“y=f(x)”中的f,比如訓(xùn)練一個(gè)短視頻推薦算法,x是用戶數(shù)據(jù),y是用戶興趣標(biāo)簽,如果y的顆粒度越精準(zhǔn)那么推薦的視頻也就越符合他的胃口。

但在實(shí)際中,我們很難去給用戶標(biāo)注合適的y來(lái)準(zhǔn)備足夠的訓(xùn)練集。此時(shí),就常用到聚類算法,他可以自行從大量x中依據(jù)數(shù)據(jù)之間的相似度來(lái)劃分成多個(gè)類別,聚類常用在機(jī)器學(xué)習(xí)的數(shù)據(jù)預(yù)處理階段。

七、降維

假設(shè)你有一個(gè)信息超級(jí)全的地圖,包含馬路、鐵路、景點(diǎn)、學(xué)校、醫(yī)院、甚至地形海拔,但是你只是想知道從人民廣場(chǎng)到陸家嘴要坐幾號(hào)線而已,那最適合你的就只是地鐵路線圖而已,這種簡(jiǎn)化數(shù)據(jù)但保留重要信息的過程就叫做降維,人工智能對(duì)信息的降維可以減少計(jì)算成本(省電費(fèi)、省顯卡),比如,你要訓(xùn)練一個(gè)給臉部顏值打分的模型,那么采集到的照片背景、用戶的衣服顏色等等就是多余的數(shù)據(jù)。

八、卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)(CNN)最典型的運(yùn)用是圖像識(shí)別,它模仿人的思維,自動(dòng)捕捉典型特征,比如邊緣、角落、紋理等,然后他們的發(fā)現(xiàn)會(huì)被匯總起來(lái),以幫助整個(gè)團(tuán)隊(duì)理解整張圖片的內(nèi)容。比如我們判斷照片上的動(dòng)物是不是貓,我們會(huì)最先想到的是看它的三角形的耳朵、圓胖的臉蛋、小鼻子,綜合這些特征后判斷是不是貓。

九、循環(huán)神經(jīng)網(wǎng)絡(luò)

CNN適合處理圖像或視頻這種網(wǎng)格結(jié)構(gòu)的數(shù)據(jù),而循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)適合處理文本、語(yǔ)音、天氣這類有時(shí)間順序序列數(shù)據(jù),它具有一定的記憶能力能夠理解上下文關(guān)系。這個(gè)算法的缺點(diǎn)是容易“梯度爆炸”或者“梯度消失”,“梯度爆炸”可以類比為在閱讀小說時(shí),對(duì)之前章節(jié)非必要的細(xì)節(jié)過于沉浸無(wú)法忘懷,以至于影響了對(duì)當(dāng)前內(nèi)容的理解。而“梯度消失”則相當(dāng)于你很快就忘記了之前的內(nèi)容,使得理解當(dāng)前內(nèi)容變得困難。

十、Transformer

Transformer模型通過其獨(dú)特的自注意力機(jī)制可以解決CNN中常有的“梯度爆炸”和“梯度消失”的問題,并且它不需要像RNN一樣按順序處理數(shù)據(jù),而是可以一次性讀取全部數(shù)據(jù)。就像是在一個(gè)巨大的圖書館里尋找信息,RNN是一本一本去讀,而Transformer可以一次性看完,并迅速找到你需要的信息。這種方法特別適合處理語(yǔ)言,因?yàn)樗枰瑫r(shí)理解句子中的每個(gè)詞及其上下文關(guān)系。

本文由 @李文杰 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)作者許可,禁止轉(zhuǎn)載。

題圖來(lái)自Unsplash,基于CC0協(xié)議。

該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 目前還沒評(píng)論,等你發(fā)揮!