機(jī)器行為學(xué),怎樣幫助我們理解AI?
人工智能機(jī)器人三大定律:第一法則,機(jī)器人不得傷害人類(主人)或袖手旁觀坐視人類受到傷害;第二法則,除非違背第一法則,機(jī)器人必須服從人類的命令;第三法則,在不違背第一及第二法則的條件下,機(jī)器人必須保護(hù)自己———科幻小說(shuō)家艾薩克.阿西莫夫
01
人也是一種“黑箱”,但不影響我們相互理解。
2016年3月9日-15日,Google Deepmind公司的團(tuán)隊(duì)研發(fā)的人工智能圍棋機(jī)器人AlphaGo與韓國(guó)圍棋世界冠軍李世石展開(kāi)了5場(chǎng)激烈的激烈的戰(zhàn)斗,最終AlphaGo以4:1的懸殊比分輕松取勝。隨后在一系列與世界圍棋頂尖高手的對(duì)決中AlphaGo披荊斬棘所向披靡,再也沒(méi)有輸?shù)暨^(guò)任何任何對(duì)決。2017年10月18日AlphaGo的升級(jí)版AlphaGo Zero橫空出世并且以100:0的比分擊敗了上代版本AlphaGo。
“AI完勝”無(wú)疑讓第三次人工智能浪潮達(dá)到了一個(gè)高峰,但隨即也引起了部分人們對(duì)人工智能的恐慌,AlphaGo已經(jīng)證明了人類已經(jīng)真的可以創(chuàng)造出如此聰明的人工智能,其一旦不受人類控制和約束,那些科幻電影的情節(jié)會(huì)不會(huì)成真,最終導(dǎo)致嚴(yán)重的后果呢?
近年來(lái)人工智能技術(shù)飛速發(fā)展,關(guān)于人工智能機(jī)器人最終不受人類控制并且最終統(tǒng)治甚至毀滅人類的科幻影視作品出不窮,熱播美劇《西部世界》中的失控的AI機(jī)器人在人類世界里大肆殺戮,嚴(yán)重的破壞了原來(lái)穩(wěn)定的秩序。電影《升級(jí)》里面的人工智能芯片“智腦“被植入人體后通過(guò)其高超的運(yùn)算能力一步一步的破壞了原本給它設(shè)定的規(guī)則程序,與人腦融為一體最終掌控人的肉體,最終讓人成為他的傀儡。
針對(duì)這種擔(dān)憂,麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究人員表示,社會(huì)需要用一種類似于行為學(xué)的多學(xué)科方法來(lái)研究算法,而不是簡(jiǎn)單的恐懼人工智能或呼吁對(duì)人工智能的監(jiān)管。
AI技術(shù)的核心是算法,算法本身并不帶有善意與惡意,但人類的善意和惡意都能被算法放大。因此,對(duì)人工智能倫理的研究,不能局限于人工智能本身,而必須將人工智能放置于其即將被投入的社會(huì)視角進(jìn)行研究。
于是他們提出了一個(gè)新的跨學(xué)科研究領(lǐng)域,來(lái)研究人工智能是如何進(jìn)化的,以及它對(duì)人類意味著什么——機(jī)器行為學(xué)。
評(píng)論人士和學(xué)者正在對(duì)人工智能機(jī)器人帶來(lái)的廣泛的、意想不到的后果發(fā)出警告,這些機(jī)器人內(nèi)置的算法能夠通過(guò)機(jī)器展示自己的行為,并產(chǎn)生始料未及的影響(包括正面和負(fù)面影響)。人們擔(dān)心人類可能失去對(duì)智能機(jī)器的控制,“自主武器”的發(fā)展意味著機(jī)器可以決定誰(shuí)在武裝沖突中生存,誰(shuí)在沖突中死亡。
本月發(fā)表在《自然》(Nature)雜志上的論文《機(jī)器行為》(Machine behavior)呼吁“在設(shè)計(jì)和設(shè)計(jì)人工智能系統(tǒng)的領(lǐng)域,以及傳統(tǒng)上使用科學(xué)方法研究生物學(xué)的行為的領(lǐng)域”共同努力。具體地說(shuō),作者建議不僅研究機(jī)器學(xué)習(xí)算法如何工作,而且還研究它們?nèi)绾问芷涔ぷ鳝h(huán)境的影響。
用更簡(jiǎn)單的話來(lái)說(shuō),就是不止考慮人工智能在“實(shí)驗(yàn)室”里怎樣工作,還要看它在實(shí)際中會(huì)怎樣工作,產(chǎn)生什么影響。
這“類似于動(dòng)物行為學(xué)和行為生態(tài)學(xué)通過(guò)將生理學(xué)和生物化學(xué)(內(nèi)在特性)與生態(tài)學(xué)和進(jìn)化論(由環(huán)境塑造的特性)結(jié)合起來(lái)研究動(dòng)物行為?!?/strong>
所以機(jī)器人行為學(xué)是一個(gè)跨學(xué)科的,復(fù)雜的研究方向需要更多的跨學(xué)科專家加入研究。
02
目前,最常見(jiàn)的研究機(jī)器行為科學(xué)家是計(jì)算機(jī)科學(xué)家、機(jī)器人專家和工程師,因?yàn)槭撬麄兪紫葎?chuàng)造了機(jī)器。他們會(huì)基于原發(fā)者的視角思考機(jī)器人的行為。這就好像是一個(gè)創(chuàng)造生命的“上帝”,他們?yōu)閯?chuàng)造出的生命設(shè)計(jì)了各類機(jī)制與本能。
然而,這些“生物”一旦“離手”最初設(shè)計(jì)的機(jī)制與外在環(huán)境互動(dòng)的過(guò)程中并不一定總是與最初的設(shè)想一致。
這就好比每個(gè)身心健康的人類總是有大致相似的生理需求與心理動(dòng)機(jī),但在與現(xiàn)實(shí)世界的互動(dòng)中每個(gè)人都成長(zhǎng)為完全不同的個(gè)體,一些人成為了至善之人而另一些人成為了邪惡的罪犯。
計(jì)算機(jī)科學(xué)家和工程師通常都不是訓(xùn)練有素的行為學(xué)家,他們可能對(duì)自己創(chuàng)造的AI有足夠的掌握,但卻并不一定能夠?qū)@些AI即將獨(dú)自探索的社會(huì)現(xiàn)實(shí)有充足的理解。
他們很少接受實(shí)驗(yàn)方法論、基于人口的統(tǒng)計(jì)和抽樣范式或觀察性因果推理方面的正式指導(dǎo),更不用說(shuō)神經(jīng)科學(xué)、集體行為或社會(huì)理論了。相反,雖然行為學(xué)家更有可能擁有在這些方面的科學(xué)方法,但他們不太可能精通人工智能方面的相關(guān)知識(shí)。
為此,人工智能行為學(xué)期望通過(guò)一種全新的方式來(lái)解決目前對(duì)人工智能的理解。
目前,社會(huì)上各種算法的流行是前所未有的,推薦算法和社交媒體公司的人工智能會(huì)影響著我們看到什么樣的信息。各大金融軟件里的信用評(píng)級(jí)(評(píng)分)算法決定了放貸策略。打車軟件中的算法改變了人們的出行方式和城市交通。
這些人工智能給人們生活帶來(lái)便利的同時(shí),也帶來(lái)了系統(tǒng)的復(fù)雜性和不透明性,比如甚至連金融公司自己都不再能清楚的解釋為什么可以給一個(gè)人貸款10萬(wàn)而另一個(gè)只有1000。
人工智能系統(tǒng)的多樣性以及普遍性會(huì)對(duì)研究這些系統(tǒng)(如金融系統(tǒng)或交通系統(tǒng))的行為造成巨大挑戰(zhàn)。
人工智能系統(tǒng)的復(fù)雜性很高,雖然用于指定模型的體系結(jié)構(gòu)和訓(xùn)練它的代碼可能會(huì)很簡(jiǎn)單,但輸出的結(jié)果往往十分復(fù)雜。它們被給予輸入,但產(chǎn)生這些輸出的確切的函數(shù)過(guò)程即使對(duì)那些自己生成算法的科學(xué)家也很難解釋。
此外,數(shù)據(jù)的維度和大小為理解機(jī)器行為增加了另一層復(fù)雜性。使這一研究更加復(fù)雜的是,社會(huì)上使用最頻繁的算法的大部分源代碼和模型結(jié)構(gòu)都是專有的,這些系統(tǒng)所訓(xùn)練的數(shù)據(jù)也是專有的。
03
在許多情況下,商業(yè)中的人工智能系統(tǒng)公開(kāi)可見(jiàn)的唯一因素是它們的輸入和輸出。即使在可用的情況下,人工智能系統(tǒng)的源代碼或模型結(jié)構(gòu)也不能對(duì)其輸出提供足夠的預(yù)測(cè)能力。人工智能系統(tǒng)還可以通過(guò)與世界和其他無(wú)法精確預(yù)測(cè)的系統(tǒng)的交互來(lái)展示新的行為。即使解析在數(shù)學(xué)上是可描述的,它們也可能是冗長(zhǎng)而復(fù)雜的,以至無(wú)法解釋。而且,當(dāng)環(huán)境發(fā)生變化時(shí)(可能是算法本身的結(jié)果),預(yù)測(cè)和分析行為就變得困難得多。
對(duì)此,引入對(duì)此,引入AI與外部環(huán)境互動(dòng)的視角能更好的幫助研究者理解人工智能本身。
機(jī)器行為位于設(shè)計(jì)和設(shè)計(jì)人工智能系統(tǒng)的領(lǐng)域與傳統(tǒng)上使用科學(xué)方法研究生物行為領(lǐng)域的交叉點(diǎn)。對(duì)行為的科學(xué)研究有助于人工智能學(xué)者對(duì)人工智能系統(tǒng)能做什么和不能做什么做出更精確的表述。
到目前為止,那些創(chuàng)建人工智能系統(tǒng)的人的主要關(guān)注點(diǎn)一直是構(gòu)建、實(shí)現(xiàn)和優(yōu)化智能系統(tǒng),以執(zhí)行特定的任務(wù)。他們的目標(biāo)一直是最大化算法的性能。一旦目標(biāo)任務(wù)“多快好省”的實(shí)現(xiàn),人工智能便“宣告成功”。然而在這一目標(biāo)被實(shí)現(xiàn)后的社會(huì)影響,目標(biāo)實(shí)現(xiàn)路徑種可能存在的其他影響則往往并不在人工智能科學(xué)家的考慮范圍之內(nèi)。
機(jī)器行為的學(xué)者們對(duì)于更廣泛的指標(biāo)集感興趣,而不是使用指標(biāo)來(lái)對(duì)基準(zhǔn)進(jìn)行優(yōu)化,就像社會(huì)科學(xué)家在社會(huì)、政治或經(jīng)濟(jì)互動(dòng)領(lǐng)域探索人類的廣泛行為一樣。因此,研究機(jī)器行為的學(xué)者花了大量的精力來(lái)定義微觀和宏觀結(jié)果的度量,以解答一些廣泛的問(wèn)題,比如這些算法在不同環(huán)境中的行為,以及人類與算法的交互是否會(huì)改變社會(huì)結(jié)果。
隨機(jī)實(shí)驗(yàn)、觀察推斷和基于群體的描述性統(tǒng)計(jì)——這些方法經(jīng)常用于定量行為科學(xué),這必須是機(jī)器行為研究的核心。所以將傳統(tǒng)上生產(chǎn)智能機(jī)器的學(xué)科之外的學(xué)者納入其中,可以提供關(guān)于重要方法論工具、科學(xué)方法、替代概念框架以及機(jī)器將日益產(chǎn)生影響的經(jīng)濟(jì)、社會(huì)和政治現(xiàn)象的觀點(diǎn)的知識(shí)。
通過(guò)觀察某一事物與周邊環(huán)境互動(dòng)的“行為”來(lái)對(duì)事物的內(nèi)在進(jìn)行研究并不是一個(gè)新方法。AI所面臨的“算法黑箱”也不是新問(wèn)題,某種程度上,動(dòng)物和人都是一種“黑箱”。
發(fā)展人工智能的初衷就在于讓人類生活更加便捷更加美好,而進(jìn)一步理解機(jī)器人行為對(duì)于我們能夠有效地控制它們的行為,以及我們最大化人工智能對(duì)社會(huì)的潛在好處,消除可能帶來(lái)的潛在危害至關(guān)重要。
–END–
作者:楊振瀚,王健飛,公眾號(hào):騰訊研究院(ID:cyberlawrc)
來(lái)源:https://mp.weixin.qq.com/s/BKe4w9WAa2O95Z2r5sS92Q
題圖來(lái)自Unsplash,基于CC0協(xié)議
- 目前還沒(méi)評(píng)論,等你發(fā)揮!