相比于機(jī)器,我們對人類的錯(cuò)誤更加寬容嗎?

7 評論 1677 瀏覽 0 收藏 13 分鐘

編輯導(dǎo)讀:當(dāng)你正在工作,你的電腦死機(jī)崩潰時(shí),盡管很無奈,但也不至于會對一臺機(jī)器破口大罵。反而在面對人為的錯(cuò)誤時(shí),會更加嚴(yán)苛。你是這樣的嗎?本文作者對此進(jìn)行了分析,希望對你有幫助。

“Assessing outcomes vs intention.

評估結(jié)果與目的”

一、你對頻繁死機(jī)的電腦感到崩潰嗎?

我們可能認(rèn)為:相比于笨拙的人類,我們對功能失常的應(yīng)用程序或設(shè)計(jì)糟糕的算法會更為苛刻。然而這只是一種模糊的猜測。

事實(shí)上,用戶對機(jī)器反而可能更具有同情心,他們似乎并不會對機(jī)器的錯(cuò)誤感到生氣或者苛責(zé)。根據(jù)César A. Hidalgo①(經(jīng)濟(jì)學(xué)家,前MIT研究員)的說法:這主要是因?yàn)橛脩魧徟袡C(jī)器是根據(jù)它們的行為結(jié)果,而不是行為目的。

無論是面對有偏見的結(jié)果還是不公平的決定,用戶似乎從來沒有真正的在機(jī)器身上尋找道德原因,而只是把它們當(dāng)成功能的載體(只關(guān)乎是否完成其工作)。

這產(chǎn)生了四個(gè)新視角詮釋人機(jī)交互的有趣行為科學(xué)結(jié)論。

二、AI決策和人類判斷

無論是輔助人類做決策,又或是雇傭新員工,識別人臉,我們都聽說過算法偏見是如何影響人工智能的。算法收集的數(shù)據(jù)保留了系統(tǒng)性的判斷偏見(judgmental biases),這有時(shí)候會反映在對某些個(gè)體的歧視性決策中。

但是人類對機(jī)器制造不公平行為有什么感覺呢?相比于人類的歧視,他們會更反感機(jī)器嗎?

César Hidalgo試圖通過社會實(shí)驗(yàn)來回答這些問題。他向參與者展示了幾種歧視情況,并要求他們判斷決策在人類或者機(jī)器負(fù)責(zé)下的公平性。這些場景里有: HR在候選人相同資質(zhì)相同的情況下從不選擇某種特定出身的候選人,和警察總是關(guān)押一些相同族群的無辜群眾。

在這些情況下,參與者都認(rèn)為人類的行為更具有目的性,因此更需要責(zé)任感。因?yàn)閰⑴c者認(rèn)為人類的行為帶有自己的主觀意愿,所以他們的行為比機(jī)器的錯(cuò)誤判斷更受到指責(zé)。然而,當(dāng)問起他們應(yīng)該由誰來取代這些歧視者,他們的答案更傾向于選擇更正直的人。

三、人類對自動化工作的模糊認(rèn)知

當(dāng)面對自動化工作(work automation)或者工作替代(job replacement)的時(shí)候,這種模糊性再次出現(xiàn)。Hidalgo通過類似的實(shí)驗(yàn)研究了人們對這種情況的反應(yīng)。
他向參與者講述了一些故事:比如公司員工要么被AI機(jī)器人取代,要么被效率更高,更有精力的外國年輕員工取代。Hidalgo詢問參與者在不同情景和不同行業(yè)內(nèi)對此會有什么感受。

令人驚訝的是,參與者更情愿取代他們工作的是機(jī)器人,而不是外國人。雖然他們的偏好因情況而異:更接受司機(jī)被自動駕駛卡車取代,而不是老師被教學(xué)機(jī)器人取代,但他們通常同意他們更喜歡自動化而不是另一位工人。

對這類情況的解釋有幾種。參與者可能覺得技術(shù)的發(fā)展是不可避免的,而被外國工人取代會激發(fā)他們的歸屬感。他們可能能更加切身的體會到后者(外國工人)的威脅性,因?yàn)檫@發(fā)生的更為頻繁。人力替代感覺上也更不公平,因?yàn)橥荣Y質(zhì)的外國工人憑什么更有權(quán)利獲得工作?

這也解釋了為什么和90-00年間歐美企業(yè)外遷勞動力(到發(fā)展中國家)相比,自動化引發(fā)的情緒抵抗似乎沒有那么的極端。

四、對機(jī)器事故的毫不寬容

自動駕駛汽車比人類駕駛員更負(fù)責(zé)任嗎?

隨著自動駕駛離現(xiàn)實(shí)越來越近,我們可能好奇:相比于人類駕駛員,用戶如何看待自動駕駛汽車需要承擔(dān)的責(zé)任?

為了回答這個(gè)問題,Hidalgo和他的團(tuán)隊(duì)把參與者置于各種各樣的道路事故(包含了人類司機(jī)或自動駕駛汽車)之中。這些事故的嚴(yán)重程度可能取決于內(nèi)在或外在因素,也包含了是傷害司機(jī)還是路人的抉擇。

這項(xiàng)實(shí)驗(yàn)首次提出了自動駕駛汽車擔(dān)負(fù)了巨大的責(zé)任。參與者對涉及自動駕駛汽車的事故判斷更為消極,認(rèn)為它們會造成更嚴(yán)重的傷害。其中一個(gè)原因是因?yàn)樗麄兏菀装炎约簬肴祟愸{駛員的視角(而不是機(jī)器的視角),他們更能同理人類司機(jī)做出的反應(yīng)(畢竟在自己身上可能也會發(fā)生這樣的情況),尤其這是由外部因素導(dǎo)致的事故(比如一棵樹倒在了路上)。

因此,參與者對造成事故的機(jī)器毫不寬容,希望它們更可靠安全。

五、機(jī)器的好壞完全取決于結(jié)果

我們可以從這些研究中得出什么結(jié)論呢?

César Hidalgo | How Humans Judge Machines | Talks at Google②(視頻地址見相關(guān)閱讀)

首先,當(dāng)整體看待受傷害感和行為目的的關(guān)系時(shí),人們認(rèn)為人類行為比機(jī)器行為更帶有目的。然而矛盾的是,參與者仍然會更容易原諒人類的行為,因?yàn)樗麄兏菀讓⑷藶殄e(cuò)誤視為壞運(yùn)氣的結(jié)果,而機(jī)器錯(cuò)誤則是需要糾正的錯(cuò)誤。

當(dāng)我們在研究行為目的和不公正之間的關(guān)系時(shí),我們發(fā)現(xiàn)了一個(gè)更符合人類判斷的事實(shí):對于那些帶有當(dāng)事人強(qiáng)烈主觀意圖的場景(比如侮辱和歧視),人們顯然會對人類行為做出更為負(fù)面的評價(jià)。人們認(rèn)為人類需要為自己的邪惡意圖負(fù)責(zé)任,而機(jī)器則被默認(rèn)為沒有自己的意圖和目的。另一方面,一些本身不帶有目的的情況(比如交通事故),機(jī)器則承擔(dān)的責(zé)備會更多。因?yàn)槲覀円呀?jīng)假定了機(jī)器的程序可以避免任何錯(cuò)誤。

最后通過評估不公正的感知和傷害范圍之間的關(guān)系,我們發(fā)現(xiàn):對涉及人造成的傷害越小,機(jī)器就越被視為罪魁禍?zhǔn)?;相反,?dāng)傷害越大,人類當(dāng)事人承擔(dān)的評價(jià)就越為負(fù)面。

總之,我們看到了兩種截然不同的判斷模式。

當(dāng)涉及人類當(dāng)事人時(shí),觀眾就會通過當(dāng)事人的意圖來評判他們的行為:他們可以犯錯(cuò),但如果居心不良,他們就需要對自己的行為負(fù)責(zé)。

另一方面,機(jī)器的評估標(biāo)準(zhǔn)是行為的結(jié)果:如果它們無法避免破壞性的錯(cuò)誤,無論發(fā)生的是什么,它們都會被批評。好的一面是,對于一些通常被定性為非常嚴(yán)重的情況(歧視或惡意羞辱),因?yàn)闄C(jī)器行為不帶有目的,所以常常不被苛責(zé)。

但這也意味著,作為設(shè)計(jì)師的我們,需要盡量減少數(shù)字服務(wù)和智能應(yīng)用程序可能產(chǎn)生的間接傷害和歧視。因?yàn)榭蓻]有人會同情設(shè)計(jì)糟糕的算法③。

③譯者注:

設(shè)計(jì)師和算法的關(guān)系

由于譯者正好從事自動駕駛行業(yè),所以就簡單聊聊這個(gè)話題??赡苡腥藭J(rèn)為糟糕算法能是程序員的問題,這和設(shè)計(jì)師有什么關(guān)系?

但事實(shí)上在以正向研發(fā)為主要流程的企業(yè)內(nèi),一個(gè)需求落地至少要經(jīng)過產(chǎn)品經(jīng)理,設(shè)計(jì)師,研發(fā)和測試四個(gè)階段。產(chǎn)品和設(shè)計(jì)師需要根據(jù)客戶/用戶的訴求去定義和產(chǎn)品的功能和使用方式,然后研發(fā)才會在設(shè)計(jì)的框架內(nèi)去實(shí)現(xiàn)這些功能。自然當(dāng)設(shè)計(jì)師遺漏或者忽視一些安全問題時(shí),研發(fā)是無法發(fā)現(xiàn)的,因?yàn)樵谒麄兊慕嵌?,功能的上下文是不明確的,他們只專注于功能本身的研發(fā)。

舉個(gè)例子,假設(shè)我們設(shè)計(jì)一個(gè)工業(yè)園區(qū)內(nèi)使用的遠(yuǎn)程自動駕駛汽車遙控器,它的功能是給車輛派發(fā)運(yùn)貨訂單,并且可以遠(yuǎn)程啟動車輛。那么如果設(shè)計(jì)師對于使用場景足夠了解,他會發(fā)現(xiàn)如果遠(yuǎn)程啟動車輛,突然的啟動可能會對周圍在裝卸貨的工人帶來安全隱患。

所以需要在這個(gè)階段提供預(yù)警或者二次鑒權(quán)的操作。而這可能是客戶的原始需求中沒有提及或者客戶覺得麻煩的功能(客戶只想點(diǎn)一次!),如果產(chǎn)品和設(shè)計(jì)沒有深入研究,自然研發(fā)無法發(fā)現(xiàn)這樣的問題。這就是我理解的為什么設(shè)計(jì)師需要對算法負(fù)責(zé)。

關(guān)于設(shè)計(jì)師的責(zé)任這一塊,有興趣的朋友可以看一看前文《負(fù)責(zé)任的設(shè)計(jì):設(shè)計(jì)師應(yīng)該承擔(dān)多少產(chǎn)品責(zé)任?》。

我也和一些人交流過這個(gè)問題,剛畢業(yè)的設(shè)計(jì)師覺得,我們需要為用戶負(fù)責(zé)!我們要站出來說話!在社會中摸爬滾打了多年的設(shè)計(jì)師多會認(rèn)為這非常的理想。確實(shí),從企業(yè)角度來講,道德如果無關(guān)乎企業(yè)生存,是會被自動忽視的(畢竟羅翔老師也說過,法律只是規(guī)定了道德的底線),或者當(dāng)成一種營銷手段。只有一些和道德高度綁定的行業(yè),比如說自動駕駛行業(yè),設(shè)計(jì)師才會有必要,有能力去考慮一些道德問題。

當(dāng)然,我也不是說設(shè)計(jì)師不需要也沒有能力去承擔(dān)責(zé)任,而是說希望大家能夠多去思考自己的正在做的產(chǎn)品,而不是說盲目的為了kpi或者okr去完成設(shè)計(jì)任務(wù)??赡苣愕囊淮屋p微的嘗試就會給產(chǎn)品帶來一些正面的影響。

六、相關(guān)閱讀

①《人類如何評判機(jī)器》How Humans Judge Machines

https://book.douban.com/subject/35557225/

②How Humans Judge Machines | Talks at Google

https://www.youtube.com/watch?v=H10-t5hnnw0

*已獲得作者授權(quán),若有翻譯問題,歡迎一起交流~

 

原文名稱:Are users more forgiving of human mistakes than machine errors?

原文作者:Jean-marc Buchert

原文鏈接: https://uxdesign.cc/are-users-more-forgiving-of-human-mistakes-than-machine-errors-5ed2a87f5368

本文由 @第三設(shè)計(jì)觀察所 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載

題圖來自 Unsplash,基于CC0協(xié)議

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 不禁感嘆,我們對人類的錯(cuò)誤好像從不曾包容,但是對于機(jī)器,我們的怒氣卻能抑制住,這確實(shí)是一個(gè)值得反思的問題。

    來自江西 回復(fù)
    1. 畢竟機(jī)器不會對你任何情緒宣泄給出反饋。

      來自浙江 回復(fù)
    2. 萬一有一天就會了??

      來自上海 回復(fù)
    3. 那時(shí)候估計(jì)人就會和機(jī)器人對噴了??

      來自浙江 回復(fù)
    4. 和siri基情對線哈哈哈哈哈

      來自上海 回復(fù)
    5. 哈哈哈哈沒錯(cuò)

      來自浙江 回復(fù)
  2. 寫的好真實(shí),確實(shí)是這樣,每次電腦死機(jī)的時(shí)候也不可能對它破口大罵

    來自江西 回復(fù)