關(guān)于AI,你最該了解可也許從沒想過的四個(gè)問題

1 評論 4058 瀏覽 24 收藏 53 分鐘

人工智能和機(jī)器學(xué)習(xí)是一回事嗎?人工智能是不是能解決所有的問題?人工智能到底能解決哪些問題?怎樣區(qū)分這些問題?

人工智能和機(jī)器學(xué)習(xí)是一回事嗎?人工智能是不是能解決所有的問題?如果不是的話,人工智能到底能解決哪些問題?又怎樣區(qū)分這些問題?對人工智能來說,哪些事情是真正困難的?人工智能給社會(huì)到底帶來了哪些挑戰(zhàn)?

日前Medium知名博主Yonatan Zunger發(fā)布了關(guān)于人工智能的深度長文,可以說是一篇不可多得的、深度與趣味性俱佳的最佳科普。雷鋒網(wǎng)在不改變原意的情況下為您做如下編譯:

在過去的幾年里,我們一直在討論人工智能(AI)將如何拯救或摧毀世界:自駕車有利于保護(hù)我們的生命;社交媒體泡沫將破壞民主;機(jī)器烤面包機(jī)會(huì)讓人類連烤面包的能力都喪失。

你可能很清楚,這其中的一些是無稽之談,一些是真實(shí)的。但是,如果你沒有深入地沉浸在這個(gè)領(lǐng)域,可能很難分辨孰真孰假。雖然對于想要學(xué)習(xí)人工智能編程的人來說,互聯(lián)網(wǎng)上有大把的啟蒙教程,但對于不想成為軟件工程師或者數(shù)據(jù)專家的人來說,卻缺乏對于人工智能的概念的了解,以及它所面臨的社會(huì)上和倫理學(xué)上的挑戰(zhàn)。

如果全社會(huì)真的要討論人工智能,我們就需要解決這個(gè)問題。所以今天我們要談?wù)勅斯ぶ悄艿默F(xiàn)實(shí):它能做什么,不可能做什么,未來可能可以做些什么,以及它帶來的一些社會(huì)、文化和道德方面的挑戰(zhàn)。我不會(huì)涵蓋每一個(gè)可能的挑戰(zhàn);其中的一些,譬如泡沫和虛假信息,大的需要一整篇文章來解釋。但是,我會(huì)給你們足夠的例子說明我們所面臨的真正的問題,你們就能夠獨(dú)立提出自己的問題。

我先給大家劇透一下:大多數(shù)最難的挑戰(zhàn)不是來自于技術(shù)。人工智能最大的挑戰(zhàn)往往始于,它迫使我們編程時(shí)不得不非常明確地表達(dá)我們的目標(biāo),幾乎沒有別的事情會(huì)這樣——而有的時(shí)候,我們并不想對自己說實(shí)話。

1人工智能和機(jī)器學(xué)習(xí)

在寫這篇文章時(shí),我將或多或少地使用術(shù)語“人工智能”(AI)和“機(jī)器學(xué)習(xí)”(ML)。這兩個(gè)術(shù)語意味著幾乎相同的東西,原因很愚蠢:因?yàn)閺臍v史上來說,“人工智能”差不多被定義為“任何電腦還無法做到的事情”。多年來人們爭辯說,下象棋需要真正的人工智能,模擬對話需要真正的人工智能,或者識(shí)別圖像需要真正的人工智能;每次這些事情實(shí)現(xiàn)了一個(gè),人工智能的邊界又隨之移動(dòng)。 “人工智能”這個(gè)詞語太可怕了,它與我們?nèi)祟惗x自己的方式以及那些讓人類與眾不同的東西靠的太近。所以在某些時(shí)候,專業(yè)人士會(huì)使用“機(jī)器學(xué)習(xí)”這個(gè)術(shù)語來進(jìn)行整個(gè)對話,然后就卡住了。但它從來也沒有真正卡住,(這個(gè)地方不知道咋翻,要不就刪了算了這句話)如果我只是談?wù)摗皺C(jī)器學(xué)習(xí)”,聽起來會(huì)顯得特別機(jī)械——因?yàn)榧词故菍I(yè)人士,也總是更多的在談?wù)撊斯ぶ悄堋?/p>

那么讓我們先來談?wù)剻C(jī)器學(xué)習(xí)或人工智能到底是什么。從最嚴(yán)格的意義上說,機(jī)器學(xué)習(xí)是“預(yù)測統(tǒng)計(jì)學(xué)”領(lǐng)域的一部分,就是建立一個(gè)系統(tǒng),它能夠獲取過去發(fā)生的事情的信息,并且利用這些建立一個(gè)關(guān)于相關(guān)環(huán)境的某種模型,用來預(yù)測在其他情況下可能發(fā)生的事情。簡單來說就像“當(dāng)我把車輪轉(zhuǎn)向左邊,車子也往左轉(zhuǎn)”那樣簡單,往難來說,就像試圖了解一個(gè)人的整個(gè)生活和品味一樣復(fù)雜。

您可以使用這張圖片來了解每個(gè)AI的功能:

一個(gè)可以感知世界的傳感器系統(tǒng)(sensor) —— 這些系統(tǒng)可以是從攝像機(jī)和LIDAR到查看文檔的網(wǎng)絡(luò)爬蟲的任何東西。還有一些其他的系統(tǒng)適用于這個(gè)環(huán)境,比如開車,或者按照分類顧客展示廣告。有時(shí)候,這個(gè)系統(tǒng)是一臺(tái)機(jī)器,有時(shí)候是一個(gè)人,他必須根據(jù)一些很復(fù)雜或者太大的事情做出決定,一下子又思考不了那么多—— 比如說整個(gè)互聯(lián)網(wǎng)的內(nèi)容。

要把兩者聯(lián)系起來,你需要一個(gè)盒子,能夠提取對這個(gè)世界的認(rèn)知,并且提出一些建議,告訴你如果采取各種行動(dòng),可能會(huì)發(fā)生什么。中間那個(gè)盒子叫做“模型(Model)”,就好比一個(gè)“這個(gè)世界是如何工作的模型”,那個(gè)盒子就是人工智能的一部分。

上面的圖表中還有一些別的的單詞,如果你聽專業(yè)人士討論AI時(shí)你可能會(huì)聽到它們。 “特征(Feature)”只是對原始認(rèn)知的一些升華,包括模型的設(shè)計(jì)者認(rèn)為有用的那部分認(rèn)知。在有些AI系統(tǒng)中,特征只是原始的認(rèn)知—— 例如,攝像機(jī)的每個(gè)像素所看到的顏色。如此大量的特征對于AI來說是有益的,因?yàn)樗粫?huì)對什么重要什么不重要有任何先入之見,但是又使得AI本身更難構(gòu)建;僅僅在過去的十年左右,建立足夠大的計(jì)算機(jī)來處理這個(gè)問題才變得可能。

“預(yù)測(Prediction)”就是另一端會(huì)產(chǎn)生的結(jié)果:當(dāng)你給模型展示一些特征時(shí),它通常會(huì)給你一堆可能的結(jié)果,以及它對每個(gè)結(jié)果的可能性的最佳理解。如果你想讓一個(gè)人工智能做出決定,那么就應(yīng)用一些規(guī)則 —— 例如,“挑選最有可能成功的人”,或者“挑選最不可能導(dǎo)致災(zāi)難性失敗的人”。對系統(tǒng)而言,權(quán)衡可能的成本和收益,重要性不亞于模型本身。

現(xiàn)在,你可以想象一個(gè)非常簡單的“模型”,它給出了針對用途的具體規(guī)則:例如,舊蒸汽機(jī)上的機(jī)械調(diào)節(jié)閥是一種簡單的“模型”,一端讀取壓力,如果這個(gè)壓力超過某個(gè)設(shè)定點(diǎn)推桿,它會(huì)打開一個(gè)閥門。這是一個(gè)簡單的規(guī)則:如果壓力高于設(shè)定值,打開閥門;否則,關(guān)閉閥門。

這個(gè)閥門非常簡單,因?yàn)樗恍枰獏⒖家粋€(gè)輸入,并做出一個(gè)決定。如果它必須依賴于成千上萬甚至數(shù)百萬輸入的信息來決定一些更復(fù)雜的東西——比如如何控制一輛汽車(取決于你的所有視覺,聽覺等等),或者哪個(gè)網(wǎng)頁可以給你關(guān)于樹袋熊養(yǎng)殖的問題提供最好的答案(這取決于你是一時(shí)興起還是專業(yè)的脊椎動(dòng)物爭論者,以及該網(wǎng)站是由愛充滿激情的愛好者所創(chuàng)辦,還是只是想賣給你廉價(jià)的樹袋熊壯陽藥)——你會(huì)發(fā)現(xiàn)這個(gè)比較很不簡單,有數(shù)百萬,甚至數(shù)千萬信息需要決定。

AI模型的特別之處在于們是專門為此而設(shè)計(jì)的。在任何人工智能模型里面都有一系列的規(guī)則來綜合所有特征,每一個(gè)特征都依賴于數(shù)百數(shù)千甚至數(shù)百萬個(gè)單獨(dú)的按鈕,告訴它在不同情況下如何權(quán)衡每個(gè)特征的重要性。例如,在一種叫做“決策樹”的人工智能模型中,模型看起來像是一個(gè)關(guān)于Yes/No問題的巨樹。如果人工智能的工作是從三文魚中分出金槍魚,那么第一個(gè)問題可能是“圖像的左半部分比右半部分更暗”,而最后一個(gè)問題大概是“根據(jù)之前的374個(gè)問題的答案,這個(gè)正方形中的平均顏色是橙色還是紅色?“這里的“按鈕”是詢問問題的順序,以及每個(gè)問題的”是“和”否“之間的界限是什么。

魔法在于:不可能找到一個(gè)能夠可靠地分辨鮭魚和金槍魚的正確問題組合。有太多了。所以,始時(shí),AI運(yùn)行在“訓(xùn)練模式”。AI被展示一個(gè)又一個(gè)的例子,每次調(diào)整它的旋鈕,以便更好地猜測接下來會(huì)發(fā)生什么,在每次錯(cuò)誤之后自我糾正。它所看到的例子越多,不同例子越多,它從偶然性中找到關(guān)鍵的能力就越強(qiáng)。一旦它被訓(xùn)練,旋鈕的值是固定的,模型可以連接到真正的執(zhí)行器使用。

ML模型對比人類做同樣任務(wù)的優(yōu)勢不是速度;一個(gè)ML模型通常需要幾毫秒來作出決定,人大概也需要這么多時(shí)間。 (你在開車的時(shí)候一直如此)。他們的真正優(yōu)勢是,他們不會(huì)覺得無聊或分心:一個(gè)ML模型可以在不同的數(shù)據(jù)片斷上連續(xù)做數(shù)百萬或數(shù)十億次決定,既不會(huì)把數(shù)據(jù)弄得更好也不會(huì)更糟。這意味著你可以將它們應(yīng)用于人類不擅長的問題——比如為單個(gè)搜索排名數(shù)十億的網(wǎng)頁,或駕駛汽車。

人類駕駛汽車非常糟糕,2015年僅美國就有35,000人因車禍死亡。這些車禍中的絕大多數(shù)是由于分心或駕駛員失誤造成的——人們通常做得很好,但在某一次關(guān)鍵時(shí)刻卻失誤了。駕駛需要巨大的專注和快速反應(yīng)能力,你可能認(rèn)為也可以做到,但糟糕的是,它需要這種能力持續(xù)保持幾個(gè)小時(shí),事實(shí)證明,我們實(shí)際上做不到。)

當(dāng)某個(gè)人談?wù)撛陧?xiàng)目中使用AI時(shí),他們的意思是將項(xiàng)目分解成上面繪制的圖,然后構(gòu)建正確的模型。這個(gè)過程首先收集訓(xùn)練的例子,這通常是最困難的任務(wù);然后選擇模型的基本形狀(即“神經(jīng)網(wǎng)絡(luò)”,“決策樹”等),這些都是針對不同問題的基本模型),并進(jìn)行訓(xùn)練;然后,最重要的是弄清楚什么是壞的,并對其進(jìn)行調(diào)整。

例如,看下面的六張圖片,找出前三張和后三張的關(guān)鍵區(qū)別:

如果你猜“前三張都有地毯”,那么你猜對了!當(dāng)然,如果你猜前三張是灰貓的照片,后面三張是白貓的照片,你也是對的。

但如果您使用這些圖像來訓(xùn)練您的灰貓?zhí)綔y器,那么當(dāng)模型嘗試對您的訓(xùn)練圖片進(jìn)行評分時(shí),您可能會(huì)獲得優(yōu)異的表現(xiàn),但在現(xiàn)實(shí)工作中這模型表現(xiàn)會(huì)很糟糕,因?yàn)槟P蛯?shí)際學(xué)到的是“灰貓就是地毯上一些類似貓形狀的東西?!?/p>

當(dāng)你的模型學(xué)習(xí)到了訓(xùn)練數(shù)據(jù)的特質(zhì),但卻不是你真正關(guān)心的東西的時(shí)候,這叫做“過擬合”。構(gòu)建ML系統(tǒng)的人大部分時(shí)間都在擔(dān)心這個(gè)問題。

2人工智能擅長什么,不擅長什么

現(xiàn)在我們已經(jīng)談?wù)摿薃I(或ML)是什么,接著讓我們來談?wù)勊烤故怯杏眠€是無用。

如果你想要實(shí)現(xiàn)的目標(biāo)和實(shí)現(xiàn)這些目標(biāo)的手段都能夠很好的理解,這種問題就不需要人工智能。?例如,如果您的目標(biāo)是“將車輪上的所有螺母擰緊到100英尺磅”,你只需要一個(gè)能夠擰緊和測量扭矩的機(jī)構(gòu),并在扭矩達(dá)到100時(shí)停止擰緊。這稱為“扭矩扳手”,如果有人給你提供一個(gè)人工智能的扭矩扳手,你要問他們的第一個(gè)問題是我為什么需要這個(gè)。 這些降低了AI的閾值,你需要的只是一個(gè)簡單的機(jī)制。

人工智能能幫助解決的問題是:目標(biāo)是明確的,但實(shí)現(xiàn)目標(biāo)的手段不明確。在以下情況最容易解決:

  • 可能的外部刺激的數(shù)量是有限的,所以模型能夠了解它們
  • 你必須控制的事物數(shù)量是有限的,所以你不需要考慮過多選擇范圍
  • 刺激或者要做的決定數(shù)量很大,你不能直接寫下規(guī)則并且區(qū)分開來
  • 能夠很容易的把一個(gè)動(dòng)作連接到外部的一個(gè)可觀察的結(jié)果,因此你可以很容易地弄清楚什么奏效,什么無效。

這些東西實(shí)際上比看起來更難。例如,現(xiàn)在拿起一個(gè)你旁邊的物體——比如我去拿一個(gè)空的汽水罐?,F(xiàn)在再慢一點(diǎn)做一次,看你的手臂是怎樣運(yùn)作的。

我的胳膊快速地沿肘部轉(zhuǎn)動(dòng),將我的手從鍵盤上水平移動(dòng)到離罐子幾英寸的垂直位置,然后迅速停止。然后它向前移動(dòng),同時(shí)把手掌打開的比罐頭大一點(diǎn),以比第一個(gè)動(dòng)作慢得多但是其實(shí)還是很快的速度,直到我看到我的拇指在我的其他手指的對面,盡管事實(shí)上我的其他手指被罐子遮住了視線。然后我的手指合攏,直到遇到阻力立即停下。然后手臂開始抬起,這一次從肩膀起(保持肘部固定)保持握緊,無限地收緊,直到手牢固地握住罐子但又不使罐子變形。

事實(shí)上,我們走路而不會(huì)臉朝地摔倒就是一件很驚人的事情,雖然看似平常。下一次你走過房間時(shí),要注意你的確切路徑,每次你彎曲或移動(dòng)你的身體,或者把你的腳放在不在面前的別的任何地方。“運(yùn)動(dòng)規(guī)劃”這個(gè)問題在機(jī)器人技術(shù)中是非常困難的。

這是非常艱難的任務(wù)之一,我們的大腦付出了比其他事情多兩倍的專注來做這件事。這使我們完成的看起來比實(shí)際上容易得多。同屬此類的其他任務(wù)還有面部識(shí)別(你可能不知道,我們的大腦的視覺功能大部分不是用于通用視覺,而是專門用于識(shí)別臉部的),理解單詞,識(shí)別3D對象,以及不碰到障礙物。我們認(rèn)為這些并不難,因?yàn)樗鼈儗ξ覀儊碚f是非常直觀的,但是它們之所以這么簡單,是因?yàn)槲覀冇袑iT的器官組織專門負(fù)責(zé)而且擅長做這些。?

對于這一系列狹窄的任務(wù),計(jì)算機(jī)做得很糟糕,并不是因?yàn)樗麄儽憩F(xiàn)的比在其他類似的任務(wù)上差,而是因?yàn)槿祟愒谥庇X上非常擅長這些,所以對“可接受性能”的基線非常高。如果我們的大腦中沒有一大塊專注于認(rèn)識(shí)面孔,那么我們看人就會(huì)像看犰狳一樣——現(xiàn)在計(jì)算機(jī)正是如此。

相反,人類聯(lián)結(jié)的方式又使得計(jì)算機(jī)就很容易的顯得足夠智能了。例如,人類的大腦有線連接認(rèn)為,或多或少活躍的事物事實(shí)上就是有生命的。這意味著與人類進(jìn)行令人信服的對話并不需要總體上理解語言,只要你或多或少的能把話題保持在焦點(diǎn)上,人類就會(huì)自動(dòng)糾正任何不清楚的東西,這就是語音助理能成功的原因。最著名的例子是ELIZA,一個(gè)1964年的模仿羅杰亞心理治療師的“人工智能”,它會(huì)理解你的句子,讓你更多地講述各種各樣的事情,如果感到困惑,它就會(huì)退后一步回到“跟我說說你的母親吧”這樣的安全問題上,雖然這只是一個(gè)笑話,但人們表示確實(shí)在交談之后感覺好了一點(diǎn)。

為了理解上述的最后一個(gè)問題 ——當(dāng)你很難把你的直接行動(dòng)和后果聯(lián)系起來的時(shí)候—— 可以考慮學(xué)習(xí)玩視頻游戲。行動(dòng)的后果是非常明顯的:當(dāng)你應(yīng)該轉(zhuǎn)彎的時(shí)候你就要轉(zhuǎn)彎,如果撞到墻上,游戲就結(jié)束。但是當(dāng)你更擅長比賽之后,你會(huì)開始意識(shí)到“糟糕,我錯(cuò)過了一個(gè)提升,五分鐘內(nèi)我要完了”,并且可以預(yù)見到更久之后的后果。你必須花很多時(shí)間去理解游戲的機(jī)制,然后去理解其中的連接。AI也有同樣的問題。

我們談到了目標(biāo)和手段都很清楚的情況,以及目標(biāo)清楚但手段不清楚的情況。還有第三個(gè)類別的情況,AI根本無法幫助:那就是,連目標(biāo)本身沒有被很好地理解。畢竟,如果你不能給AI一堆好的和壞的解決方案的例子,那么它能從中學(xué)到什么?

我們隨后會(huì)再談這些問題,因?yàn)榈降啄男﹩栴}屬于這個(gè)范疇,往往是最棘手的道德問題出現(xiàn)的地方。實(shí)際上很多時(shí)候情況是,要么我們不知道“成功”的真正含義(在這種情況下,你怎么知道你是否成功了?),或者更糟的是,我們知道 ——但是不想真正對自己承認(rèn)。計(jì)算機(jī)編程的第一條規(guī)則是,他們不善于自我欺騙:如果你想要他們做某件事,你必須向他們解釋你想要的東西。

在我們開始談?wù)摰赖轮?,這里有另外一種方法去分析AI的好壞。

最容易的是在可預(yù)測的環(huán)境中有明確的目標(biāo)。譬如一臺(tái)攝像頭監(jiān)測著一條裝配線,它知道汽車很快就會(huì)出現(xiàn),目標(biāo)是識(shí)別到車輪。

相對較難的情況是在不可預(yù)測的環(huán)境中有一個(gè)明確的目標(biāo)。自動(dòng)駕駛汽車就是一個(gè)很好的例子:目標(biāo)可以直接描述(從A點(diǎn)安全到B點(diǎn)而且速度合理),但是環(huán)境則可能包含許多意外。人工智能在過去幾年剛剛發(fā)展到可以向這些問題發(fā)起沖擊的地步,因此我們研究自駕車或自駕飛機(jī)等問題。

另一種難題是在可預(yù)測的環(huán)境中實(shí)現(xiàn)一個(gè)間接目標(biāo)。在這種情況中環(huán)境是可預(yù)測的,但是行為和目標(biāo)之間的關(guān)系是非常遙遠(yuǎn)的——就像玩游戲一樣。這是我們近期取得巨大進(jìn)步的另一個(gè)領(lǐng)域,人工智能能夠完成以前難以想象的事情,比如Alpha Go在圍棋比賽中取勝。

贏得棋盤游戲本身并不是很有用,但它卻打開了在不可預(yù)知的環(huán)境中實(shí)現(xiàn)目標(biāo)的道路,比如計(jì)劃你的財(cái)務(wù)組合。這是一個(gè)比較棘手的問題,我們還沒有取得重大進(jìn)展,但是我希望我們能夠在未來十年內(nèi)把這些做好。

最后還有一種最難的情況:目標(biāo)不明確的情況。?AI根本無法解決這些問題;如果你不能告訴它你想做什么,你就無法訓(xùn)練系統(tǒng)。寫小說可能就是一個(gè)例子,因?yàn)闆]有一個(gè)明確的答案是什么使某本書成為“好的小說”。另一方面,這個(gè)問題有一些具體部分目標(biāo)可以定義——例如“寫一本小說,如果像恐怖片一樣銷售,就能賣得好。這種對AI應(yīng)用到底好還是不好,就留待讀者的智慧判斷。

3 倫理與現(xiàn)實(shí)世界

現(xiàn)在我們可以開始看看問題的真諦:那些AI的成敗能夠產(chǎn)生重大影響的難題是什么樣的?還在不斷出現(xiàn)一些什么樣的問題?

我可以很容易地給出一大串答案,但我們沒有覆蓋這個(gè)領(lǐng)域每一個(gè)有趣的問題,甚至沒法覆蓋大多數(shù)的問題。但是我給你們舉了六個(gè)例子,這些例子幫助我思考了很多,它們主要的幫助不在于給了我正確的答案,但是他們幫助我提出了正確的問題。

(1).乘客和行人?

一個(gè)自駕車正在穿過一座狹窄的橋,這是一個(gè)小孩突然在它前面跑出來。停下來已經(jīng)太遲了;這個(gè)汽車能做的只有要么前進(jìn),將小孩撞飛,或者轉(zhuǎn)彎,把自己和乘客送到下面的奔流河里。它應(yīng)該怎么做?

這個(gè)問題在過去幾年已經(jīng)被公開討論過了,這個(gè)討論是非常明智的,展示了我們真正需要問的問題。

首先,整個(gè)問題有一個(gè)很大的漏洞:這個(gè)問題在實(shí)踐中出現(xiàn)的概率很小,因?yàn)樽詣?dòng)駕駛汽車的重點(diǎn)在于,他們一開始就不會(huì)涉足這種情況。孩子很少突如其來出現(xiàn),大多數(shù)情況下這種情況發(fā)生時(shí),要么因?yàn)轳{駛員的反應(yīng)不夠快,無法處理從他障礙物后面跳出來的孩子,要么駕駛員出于某種原因分心,注意到孩子的時(shí)候已經(jīng)太遲了。這些都是自動(dòng)駕駛不存在的問題:自動(dòng)駕駛一次查看所有信號(hào),連續(xù)數(shù)小時(shí)都不會(huì)感到無聊或分心。像這樣的情況將變得非常罕見,這就是自動(dòng)駕駛能夠拯救生命的來源。

但是“幾乎從不”與“絕對不會(huì)”是不一樣的,我們不得不承認(rèn)有時(shí)會(huì)發(fā)生這種情況。當(dāng)它發(fā)生時(shí),車應(yīng)該做什么?應(yīng)該優(yōu)先考慮乘客還是行人的生命?

這不是一個(gè)技術(shù)問題:而是一個(gè)政策問題。這和我們今天生活的世界有很大的不同。如果你問人們在這種情況下會(huì)怎么做,他們會(huì)給出各種各樣的答案,并用各種各樣的“取決于當(dāng)時(shí)情況”來限制這個(gè)答案。事實(shí)是,我們不想做這個(gè)決定,我們當(dāng)然不想公開承認(rèn)我們的決定是要保護(hù)自己的孩子。當(dāng)人們真的處于這種情況下,他們的回應(yīng)就會(huì)在地圖上出現(xiàn)。

在文化上來說,我們有一個(gè)答案:在這個(gè)瞬間,在你看到迎面而來的災(zāi)難和事件發(fā)生的那一瞬間,我們認(rèn)識(shí)到我們不能作出理性的決定。我們最終會(huì)讓司機(jī)對他們的決定負(fù)責(zé),并且認(rèn)為這是不可避免的,不管他們做了什么決定。?(雖然我們可能會(huì)讓他們?yōu)橹白龀龅臎Q定負(fù)責(zé)任,比如超速駕駛或駕駛醉酒)。

有了自駕車,我們沒有這個(gè)選擇;編程在字面上有一個(gè)空格,它現(xiàn)在要求我們在事故發(fā)生的幾年之前就給它答案:“當(dāng)發(fā)生這種情況時(shí),我該怎么辦?我應(yīng)該如何減輕乘客的風(fēng)險(xiǎn),以免對行人造成危險(xiǎn)?”

它會(huì)按照我們告訴它的做。計(jì)算機(jī)編程的任務(wù)要求我們對自己想要的決定保持殘酷的誠實(shí)。當(dāng)這些決定影響整個(gè)社會(huì)時(shí),比如在這種情況下,這意味著作為一個(gè)社會(huì),我們面臨著同樣艱難的抉擇。

(2)、禮貌性編造

機(jī)器學(xué)習(xí)模型有一個(gè)非常討厭的習(xí)慣:他們會(huì)學(xué)習(xí)數(shù)據(jù)顯示給他們的東西,然后告訴你他們學(xué)到了什么。 他們頑固地拒絕學(xué)習(xí)“我們所希望的世界”,或者“我們喜歡宣稱的世界”,除非我們明確地向他們解釋那是什么——即使我們喜歡假裝我們沒有這樣做。

2016年年中,高中生卡比爾·艾力(Kabir Alli)試圖在Google上搜索“三個(gè)白人青少年”和“三個(gè)黑人青少年”,結(jié)果甚至比你想象的還要糟糕。

“三個(gè)白人青少年”展現(xiàn)了迷人的、運(yùn)動(dòng)型的青少年身影; “三名黑人青少年”顯示了三名黑人青少年被捕的新聞報(bào)道中的照片。 (現(xiàn)在,搜索結(jié)果大部分都是關(guān)于這個(gè)事件的新聞報(bào)道)

這里并不是因?yàn)镚oogle算法中的偏見:而是底層數(shù)據(jù)的偏見。這種特殊的偏見是“無形白人主義”和媒體報(bào)道的偏見的結(jié)合:如果三名白人青少年因犯罪被捕,不僅新聞媒體不太可能展示他們的照片,而且也不太可能特意提出他們是“白人青少年”。事實(shí)上,幾乎所有的青少年群體都被明確地標(biāo)注為“白人”,從攝影產(chǎn)品目錄可以看出。但是,如果三名黑人青少年被捕,你可以找到在上面提到的新聞報(bào)道中出現(xiàn)的那句話。

許多人對這些結(jié)果感到震驚,因?yàn)樗麄兯坪跖c我們這個(gè)“忽視種族”社會(huì)的國家觀念不一致。 (請記住,這是在2016年中)但基本的數(shù)據(jù)是非常明確的:當(dāng)人們用高質(zhì)量的圖像在媒體上說“三個(gè)黑人青少年”時(shí),他們幾乎總是把他們作為罪犯在談?wù)?,?dāng)他們談到“三個(gè)白人青少年“,幾乎都是廣告攝影。

事實(shí)上,這些偏見確實(shí)存在于我們的社會(huì)中,而且它們幾乎反映在你看到的任何數(shù)據(jù)上。在美國,如果你的數(shù)據(jù)沒有顯示某種種族傾向,那么很可能你做錯(cuò)了什么。如果你通過不讓種族成為模型的輸入特征來手動(dòng)地“忽略種族”,它會(huì)通過后門進(jìn)入:例如,某人的郵政編碼和收入可以非常準(zhǔn)確地預(yù)測他們的種族。一個(gè)將之不視為種族因素的ML模型,以及被要求預(yù)測我們社會(huì)中的事實(shí)上與種族相關(guān)的東西的ML模型,很快就會(huì)將其視為“最好的規(guī)則”。

人工智能模型在我們面前舉起一面鏡子,他們不明白我們什么時(shí)候不想誠實(shí)。他們只會(huì)禮貌性編造,如果我們告訴他們?nèi)绾翁崆叭鲋e的話。

這種誠實(shí)會(huì)迫使你必須非常明確。最近的一個(gè)例子是在一篇關(guān)于“文字去除”的技術(shù)論文中。是關(guān)于一個(gè)非常受歡迎的叫做word2vec的ML模型,它學(xué)習(xí)了英語單詞含義之間的各種關(guān)系——例如,“國王對男性,女王對女性?!痹撜撐淖髡甙l(fā)現(xiàn),模型包含了不少社會(huì)偏見的例子:例如“電腦程序員對男人來說就像家庭主婦對女人一樣。”作者在該論文中提出了一種一種消除性別偏見的技術(shù)。

該論文的許多偶然性讀者(包括許多撰寫關(guān)于它的新聞文章的人)看不到的是,并沒有一種自動(dòng)化的方式能消除偏見。模型的整個(gè)程序是相當(dāng)合理的:首先,他們分析單詞兩個(gè)詞向量模型,找到沿著他/她軸線(性別軸線)對立性分開的單詞組。接下來,他們要一組人辨別哪些對應(yīng)關(guān)系是有道理的(例如,“男孩對男人/女人對女人是對的”),以及哪些對應(yīng)關(guān)系中代表了社會(huì)偏見(譬如程序員對男人/家庭主婦對女人)。最后,他們運(yùn)用數(shù)學(xué)技術(shù)從整個(gè)模型中去除了帶有偏見的詞組,留下了一個(gè)改進(jìn)后的模型。

這項(xiàng)工作是很好的,但重要的是要認(rèn)識(shí)到,確定哪些男性/女性分化應(yīng)該被刪除的關(guān)鍵步驟是人為的決定,而不是一個(gè)自動(dòng)的過程。它要求人們從字面上識(shí)別他們認(rèn)為哪些詞組的對應(yīng)關(guān)系是合理的,哪些不合理。而且,原來的模型衍生出這些分化是有原因的。它來自對來自世界各地?cái)?shù)以百萬計(jì)的書面文本的分析。原來的詞向量對應(yīng)關(guān)系準(zhǔn)確地捕捉到了人們的偏見;清理后的模型準(zhǔn)確地反映了評估者認(rèn)為哪些偏見應(yīng)該被刪除的偏好。

這其中展現(xiàn)出的危險(xiǎn)是“自然主義的謬誤”,當(dāng)我們混淆“應(yīng)該是什么”和“其實(shí)是什么”的時(shí)候,這種謬誤就會(huì)發(fā)生。如果我們想用模型來研究人們的看法和行為,原本的模型是合適的;如果我們想用模型來生成新的行為并將某些意圖傳達(dá)給其他人,修改后的模型是適當(dāng)?shù)?。說修改后的模型更準(zhǔn)確地反映了世界是什么樣的,那是不對的;說因?yàn)檫@個(gè)世界某種程度上是什么樣,那么它就該是那樣,那也是不對的。畢竟,任何模型的目的——人工智能或智力——都是要做決定。決定和行動(dòng)完全是關(guān)于我們希望這個(gè)世界是什么樣子的。如果不是這樣,我們根本就不會(huì)做任何事情。

(3)大猩猩事件

2015年7月,當(dāng)我擔(dān)任Google社交工作(包括照片)的技術(shù)負(fù)責(zé)人時(shí),我收到了Google同事的一個(gè)緊急信息:我們的照片索引系統(tǒng)公開把一個(gè)黑人和他的朋友的照片描述成為“大猩猩, “他有理由憤怒?!?/p>

我立即回應(yīng),大聲做出保證之后,給團(tuán)隊(duì)打電話,公開回應(yīng)說這是很不好的。團(tuán)隊(duì)采取行動(dòng),禁用了違規(guī)表征以及其他幾個(gè)有潛在風(fēng)險(xiǎn)的表征,直到他們能夠解決潛在的問題為止。

許多人懷疑,這個(gè)問題與六年前惠普的臉部攝像機(jī)不能在黑人身上工作的問題是一樣的:“面孔”的訓(xùn)練數(shù)據(jù)完全是由白人組成的。我們開始也這么懷疑,但是我們很快就排除了這個(gè)原因:訓(xùn)練數(shù)據(jù)包括各種種族和膚色的人。

其真正原因是三個(gè)微妙的問題的交集。

第一個(gè)問題是人臉識(shí)別很難。不同的人臉看起來對我們來說截然不同,那是因?yàn)槲覀兊拇竽X中有很大一部分只專注于識(shí)別人臉; 我們已經(jīng)花費(fèi)了數(shù)百萬年的時(shí)間來改進(jìn)這個(gè)功能。但是如果你注意比較兩個(gè)不同面孔的差異,把這個(gè)差異和兩把不同的椅子之間的差異相比,你會(huì)發(fā)現(xiàn)面孔的相似性比你想象的要大得多——甚至是跨物種之間。

事實(shí)上,我們發(fā)現(xiàn)這個(gè)錯(cuò)誤并不是孤立的:這個(gè)照片索引系統(tǒng)也容易把白種人的臉誤認(rèn)為是狗和海豹。

第二個(gè)問題是問題的真正核心:ML系統(tǒng)在其自己的領(lǐng)域非常聰明,但除非教導(dǎo)它,否則對于更廣泛的世界一無所知。而當(dāng)它試圖考慮所有的圖片可能被識(shí)別的對象時(shí)——這個(gè)AI不僅僅識(shí)別人臉——沒有人想到要向它解釋黑人因?yàn)楸黄缫暥L期被比作猿人。這種背景使這個(gè)錯(cuò)誤非常嚴(yán)重,而將小孩錯(cuò)誤地認(rèn)定為一只海豹?jiǎng)t只是一件趣事罷了。

這個(gè)問題沒有簡單的答案。在處理涉及人類的問題時(shí),錯(cuò)誤的代價(jià)通常與極其微妙的文化問題聯(lián)系在一起。這并不是說很難解釋,而是很難提前想到它們。

這個(gè)問題不僅僅體現(xiàn)在人工智能上,也表現(xiàn)在人們要在不同文化中做出價(jià)值判斷。一個(gè)特別的挑戰(zhàn)來自于,當(dāng)在網(wǎng)上發(fā)現(xiàn)騷擾和濫用行為的時(shí)候。這些問題幾乎完全由人類來處理,而不是由人工智能來處理,因?yàn)榧词故侵贫ㄈ祟愑脕砼袛噙@些事情的規(guī)則都是非常困難的。我曾在Google花了一年半的時(shí)間來制定這樣的規(guī)則,認(rèn)為這是我所面臨的最大的智力挑戰(zhàn)之一。

即使有團(tuán)隊(duì)提出規(guī)則,由人類而不是AI來執(zhí)行它們,文化障礙也是一個(gè)巨大的問題。印度的評論家不一定具有關(guān)于美國的種族歧視的文化背景,在美國的人也不一定有印度文化背景。但世界各地的文化數(shù)量是巨大的:你怎樣以任何人都可以理解的方式來表達(dá)這些想法?

從中學(xué)到的教訓(xùn)是:系統(tǒng)中最危險(xiǎn)的風(fēng)險(xiǎn)通常不是來自系統(tǒng)內(nèi)部的問題,而是來自系統(tǒng)與更廣泛的外部世界互動(dòng)時(shí)意想不到的方式。我們還沒有一個(gè)好方法來管理這些。

(4)不幸的是,人工智能會(huì)按你說的做

人工智能的一個(gè)重要用途是幫助人們做出更好的決策:不是直接執(zhí)行某個(gè)操作,而是告訴人們推薦哪一個(gè),從而幫助他們做出一個(gè)好的選擇。尤其當(dāng)這些選擇具有高風(fēng)險(xiǎn)時(shí),這是最有價(jià)值的。但真正影響這個(gè)長期結(jié)果的因素,對于人們來說并不是很明顯。事實(shí)上,如果沒有明確有用的信息,人類可能會(huì)輕易地采納無意識(shí)的偏見,而不是真正的數(shù)據(jù)。這就是為什么許多法院開始使用自動(dòng)化的“風(fēng)險(xiǎn)評估”作為他們量刑指引的一部分。

現(xiàn)代風(fēng)險(xiǎn)評估是ML模型,負(fù)責(zé)預(yù)測未來犯罪的可能性。如果你拿一個(gè)地區(qū)的法院歷史的全部語料來訓(xùn)練模型,可以形成一個(gè)令人驚訝的清晰的展現(xiàn),告訴你誰是潛在危險(xiǎn)分子。。

如果你到目前為止一直在仔細(xì)閱讀,你可能會(huì)發(fā)現(xiàn)一些方法來實(shí)現(xiàn)這個(gè)目標(biāo),這些方法可能會(huì)非??膳拢浅ee(cuò)誤。正如2016年P(guān)roPublica揭露的那樣,然而這正是全國各地發(fā)生的事情。

佛羅里達(dá)州布勞沃德縣使用的系統(tǒng)COMPAS系統(tǒng)的設(shè)計(jì)者,遵循了最佳實(shí)踐原則。他們確保他們的訓(xùn)練數(shù)據(jù)沒有人為地偏袒某個(gè)群體,例如確保所有種族的人都有相同的訓(xùn)練數(shù)據(jù)。他們將種族排除在模型的輸入特征之外。只有一個(gè)問題:他們的模型并沒有預(yù)測出他們認(rèn)為該預(yù)測的事情。

量刑風(fēng)險(xiǎn)評估模式應(yīng)該提出的問題是,“這個(gè)人將來犯下嚴(yán)重罪行的概率是多少,以此作為你現(xiàn)在給他們的刑罰的一個(gè)函數(shù)?!边@要同時(shí)考慮到這個(gè)人以及刑罰帶給他未來生活的影響:是否會(huì)導(dǎo)致永遠(yuǎn)監(jiān)禁他們?釋放他們之后會(huì)不會(huì)沒有機(jī)會(huì)得到一個(gè)平穩(wěn)的工作?

但是我們沒有一道在每次犯罪的時(shí)候都會(huì)熄滅的魔法之光,我們也當(dāng)然沒有那種例子:一個(gè)人一次同時(shí)接受了兩種不同的刑罰結(jié)果產(chǎn)生兩種不同的后果。 因此,COMPAS模型是通過對真實(shí)的、難以獲得的數(shù)據(jù)的模擬來進(jìn)行培訓(xùn)的:根據(jù)我們在判刑時(shí)所得知的一個(gè)人的信息,這個(gè)人將被定罪的概率是多少? 或者用兩個(gè)人來對比:“這兩個(gè)人哪一個(gè)最有可能在將來被定罪?”

如果你對美國政治有一點(diǎn)了解的話,你可以立即回答這個(gè)問題:“黑人!”黑人比白人更可能被在路上截住,被逮捕,定罪并給予比白人更長的刑期。所以忽略其他絕對事實(shí)死亡情況下,一個(gè)查閱歷史數(shù)據(jù)的ML模型,如果預(yù)測一個(gè)黑人被告在未來更有可能被定罪,結(jié)合歷史來看肯定是相當(dāng)準(zhǔn)確的預(yù)測。

但是,這個(gè)模型被訓(xùn)練的方法和它的真正用途不相符合。它被訓(xùn)練回答“誰更可能被定罪”,問它的卻是“誰更有可能犯罪”,沒有人注意到這是兩個(gè)完全不同的問題。

這里顯然有很多問題。其一是法院對待AI模型太過依賴,將其作為衡量判決的直接因素,跳過人的判斷,比任何模型本可以提供的保證還要自信。另一個(gè)問題當(dāng)然是這暴露出的基本的、系統(tǒng)性的種族主義:同樣的罪行下黑人更有可能被逮捕并被定罪。

但是這里有一個(gè)關(guān)于ML的特定問題值得注意:你想測量的數(shù)量和你可以測量的數(shù)量之間經(jīng)常有差異。當(dāng)兩者存在差異的時(shí)候,你的ML模型能夠很好的預(yù)測你所測量的數(shù)量,而不是它其實(shí)代表的數(shù)量。在相信你的模型之前,你需要非常仔細(xì)地理解這些相似和不同。

(5)人是一個(gè)合理化的動(dòng)物?

在機(jī)器學(xué)習(xí)的討論中有一個(gè)新的熱門話題:“解釋權(quán)”。意思是,如果ML被用來做任何重要的決定,人們有權(quán)理解這些決定是如何做出的。

直覺上,這似乎是顯而易見且有價(jià)值的想法——然而,當(dāng)ML專業(yè)人員提到這一點(diǎn)時(shí),他們的臉色立刻就變了,他們想要解釋這個(gè)要求事實(shí)上是不可能的。

為什么會(huì)這樣?

首先,我們應(yīng)該明白為什么很難做到這一點(diǎn);第二,更重要的是,我們應(yīng)該明白為什么我們期望它容易做到,為什么這個(gè)期望是錯(cuò)誤的。第三,我們可以看看對此可以做些什么。

早些時(shí)候,我將ML模型描述為數(shù)百至數(shù)百萬個(gè)旋鈕。這個(gè)比喻對實(shí)際模型的復(fù)雜性來說并不公平。例如,現(xiàn)代基于ML的語言翻譯系統(tǒng)一次只能輸入一個(gè)字母。這意味著模型必須在閱讀了大量的字母之后,對其中的文本理解狀態(tài)進(jìn)行表述,以及每個(gè)連續(xù)的下一個(gè)字母如何影響其對意義的解釋。

對于模型遇到的任何情況,它所做的唯一“解釋”是:“好吧,后面的幾千個(gè)變量是這樣的狀態(tài),然后我看到字母“c”,這應(yīng)該改變了用戶在談?wù)摴返母怕?#8230;

不僅僅你無法理解這一點(diǎn),ML研究人員也是難以理解的。 ML系統(tǒng)的調(diào)試是該領(lǐng)域最難的問題之一,因?yàn)樵谌魏螘r(shí)候檢查變量的個(gè)體狀態(tài)然后向你解釋這個(gè)模型,就像測量一個(gè)人的神經(jīng)潛能然后將會(huì)告訴你他們吃晚飯的時(shí)間差不多。

然而 ——這是第二部分——我們總是覺得我們可以解釋我們自己的決定,而且是人們期望的那種解釋。 “考慮到它們的FICO分?jǐn)?shù)中位數(shù),我把這個(gè)抵押貸款的利率設(shè)定為7.25%。”他們期望它說:“如果Experian的FICO分?jǐn)?shù)高了35分,那么這個(gè)分?jǐn)?shù)就會(huì)下降到7.15%?!?,“我建議我們聘請這個(gè)人,因?yàn)樗麄冊谖覀兊拿嬖囍星逦亟忉屃藱C(jī)器學(xué)習(xí)?!?/p>

但是每個(gè)認(rèn)知或行為心理學(xué)的人都知道一個(gè)黑暗的秘密:所有這些解釋都是無稽之談。我們是否會(huì)喜歡一個(gè)人,在聊天開始的最初幾秒就已經(jīng)決定了,而且可能會(huì)受到一些看似隨意的事情的影響,比如在握手之前握著熱飲還是冷飲。無意識(shí)的偏見彌漫在我們的思想之中,而且也可以被測量出來,即使我們沒有意識(shí)到。認(rèn)知偏差是當(dāng)今心理學(xué)研究中最大的(也是最有意思的)分支之一。

事實(shí)證明,人們所擅長的并不是解釋他們是如何做出決定的,而是為自己的決定找出合理的解釋。有時(shí)候,這完全是無意識(shí)的,例如,我們在決策過程中會(huì)突出一些事實(shí)(“我喜歡這輛汽車的顏色”),并將注意力集中在這一點(diǎn)上,而忽略了對我們來說可能更重要但是看不見的因素(“我的繼父有一個(gè)敞篷車,我討厭我繼父”)。(“第一個(gè)候選人聽起來就像我畢業(yè)時(shí)那樣,那個(gè)女人很好,但是她看起來太與眾不同,她不適合和我一起工作?!保?/p>

如果我們期望ML系統(tǒng)為他們的決定提供實(shí)際的解釋,那么我們就會(huì)遇到很多麻煩,就像我們要求人們解釋他們自己的決定的實(shí)際基礎(chǔ)一樣:ML系統(tǒng)不會(huì)比人類更容易解釋。

當(dāng)我們要求解釋的時(shí)候,我們感興趣的常常是那些顯而易見的事實(shí)(因?yàn)楦淖兯鼈儠?huì)改變結(jié)果)和變量(因?yàn)閷λ鼈兊母淖冎档糜懻摚?例如,“你現(xiàn)在看到的是這個(gè)招聘告示; 但如果你住在靠西邊十英里的地方,你就會(huì)看到另一個(gè)”,這在某種情況下可能很有趣,但是“如果你是一個(gè)鴯鹋,你會(huì)看到的就是木拉加的種子”,這就不有趣了。

生成這種解釋的數(shù)學(xué)技術(shù)正在積極的發(fā)展中,但存在一些不容忽視的挑戰(zhàn)。例如,大多數(shù)這些技術(shù)是基于建立另一個(gè)“解釋性”的ML模型,這個(gè)模型不太準(zhǔn)確,只適用于給定一些輸入信息然后變量很小的情況,整體更容易理解,但和前面提到的主ML模型是基于完全不同的原則。 (這是因?yàn)橹挥邢駴Q策樹這樣的幾種ML模型可以被人們完全理解,而在許多實(shí)際應(yīng)用中最有用的模型,如神經(jīng)網(wǎng)絡(luò),則完全無法被理解。)這意味著如果你試圖給第二個(gè)解釋模型輸入“不,改變這個(gè)變量!”這種反饋,它可能根本就辦法把它轉(zhuǎn)化為主模型的輸入。而且,如果你給人一個(gè)解釋工具模型,他們也會(huì)要求用相同的語言來改變它的權(quán)利——要求很合理但不可行。

人類的大腦有極度通用的智能能處理各種概念,因而可以解決這個(gè)問題。你可以告訴它,在涉及種族歷史時(shí)應(yīng)該對圖像識(shí)別格外小心,因?yàn)橥粋€(gè)系統(tǒng)(大腦)可以理解這兩個(gè)概念。但AI還遠(yuǎn)遠(yuǎn)不能做到這一點(diǎn)。

(6)AI,歸根到底,終是一個(gè)工具?

人工智能無人機(jī)殺手——不提出這個(gè)大家都喜歡的例子就沒法探討AI道德。這些飛機(jī)在高空飛行,僅由計(jì)算機(jī)控制,在維護(hù)平民生活的同時(shí)實(shí)現(xiàn)殺害敵方武裝分子的任務(wù)……除非它們認(rèn)為任務(wù)需要一些“附帶損害”,就像官方委婉說法那樣。

人們對這樣的設(shè)備感到害怕,如果更多地聽一些正生活在永恒的死亡威脅之下的人們的故事,他們會(huì)更加害怕——從晴朗的天空中橫空出世的殺手。

人工智能是這個(gè)討論的一部分,但它不如我們想象的那么重要。大型無人機(jī)與有人駕駛飛機(jī)的不同之處在于,他們的飛行員可以遠(yuǎn)離千里之外,遠(yuǎn)離傷害。自動(dòng)駕駛儀AI的改進(jìn)意味著,一個(gè)無人駕駛操作員可以很快操作不止一架飛機(jī)。最終,大型無人機(jī)可以在99%的時(shí)間內(nèi)自行駕駛,只有在需要作出重大決定時(shí)才會(huì)呼叫人。這將開辟更大的無人機(jī)空中力量成本更低的可能性——民主化從天上炸人的權(quán)力。

在這個(gè)故事的另一個(gè)版本中,人類可能已經(jīng)完全被從“殺戮鏈”也就是決定是否發(fā)射武器的決定中排除。現(xiàn)在我們可能會(huì)問,誰來承擔(dān)完全由機(jī)器人決定的殺人的道德責(zé)任?

這個(gè)問題既比我們想象的要簡單,同時(shí)也要更復(fù)雜。如果有人用石頭擊中另一個(gè)人的頭,我們責(zé)怪這個(gè)人,而不是石頭。如果他們投擲長矛,即使矛在某一段飛行期間“處于自己的力量之下”,我們也絕不會(huì)想要責(zé)怪矛。即使他們構(gòu)建了一個(gè)復(fù)雜的死亡陷阱,印第安納·瓊斯式的意志行為也是人類的。問題是現(xiàn)在“工具”自己決定的范圍變得模糊。

簡單的地方在于,在于這個(gè)問題并不是全新的。軍事紀(jì)律的很大要點(diǎn)是要建立一個(gè)戰(zhàn)斗力量,在戰(zhàn)斗中不要過于自主思考。在軍隊(duì)是歐洲體系后裔的國家,軍士和士官的作用是執(zhí)行計(jì)劃;委托人員的職責(zé)是決定執(zhí)行哪些計(jì)劃。因此,從理論上講,決策責(zé)任完全是在官員肩上,根據(jù)軍銜,指揮官等區(qū)分人員責(zé)任區(qū)的明確界定決定了誰最終對任何一個(gè)指令負(fù)責(zé)。

在實(shí)踐中,這往往是相當(dāng)模糊的,這些原則是我們已經(jīng)了解了幾千年的原則,而AI其實(shí)并沒有增加新的內(nèi)容。即使具有了再大的決策能力和自主性,AI仍然需要這個(gè)討論——實(shí)際上在人類世界,我們有足夠的自主權(quán)去探討這些問題,也不過是近幾十年的事情。

也許這是人工智能倫理的最后一個(gè)重要的經(jīng)驗(yàn):我們面臨的關(guān)于人工智能的許多問題其實(shí)是我們過去也面對的問題,現(xiàn)在通過技術(shù)上的一些變化而顯露出來。在我們現(xiàn)有的世界中尋找類似的問題往往是有價(jià)值的,能夠幫助我們理解如何處理看似新的問題。

4 我們要去向何處?

還有很多我們應(yīng)該討論的問題——其中很多對這個(gè)社會(huì)來說是非常緊迫的。但是我希望上面的例子和解釋給了你一些環(huán)境,讓你理解事情什么時(shí)候是對的,什么時(shí)候不對頭。以及許多的AI道德風(fēng)險(xiǎn)源于何處。

這些大多都不是新問題;相反,是一個(gè)向計(jì)算機(jī)解釋我們的訴求的正式過程——沒有文化背景、也沒有能力推斷出我們的言外之意的終極案例——迫使我們以違背日常習(xí)慣的方式來表達(dá)。無論是要求我們在緊要關(guān)頭到來之前好幾年就做出生死攸關(guān)的決定,而不是拖延到事情真正發(fā)生的時(shí)刻現(xiàn)在的高潮,還是要求我們長期嚴(yán)格的審視社會(huì)的實(shí)際情況,并態(tài)度鮮明的表達(dá)我們想要保留哪些部分以及我們想要改變哪些部分;AI把我們推離了“禮貌性編造”的舒適區(qū),進(jìn)入了一個(gè)我們必須非常明確地討論事物的世界。

這些問題中的每一個(gè),都早在AI之前就存在了; AI只是讓我們以一種新的方式來談?wù)撍鼈儭_@可能并不容易,但是對我們來說,誠實(shí)可能是新技術(shù)可以給我們帶來的最寶貴的禮物。

 

作者:Yonatan Zunger

來源:https://www.leiphone.com/news/201711/vnPrKIJpzXO0tuqJ.html

本文來源于人人都是產(chǎn)品經(jīng)理合作媒體@雷鋒網(wǎng),作者@Yonatan Zunger

題圖來自PEXELS,基于CC0協(xié)議

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評論
評論請登錄
  1. 超贊

    來自廣東 回復(fù)