AI也有偏見(jiàn):你在機(jī)器“眼里”是好人還是壞蛋?

6 評(píng)論 3142 瀏覽 4 收藏 11 分鐘

人工智能是從人類(lèi)身上學(xué)習(xí)的,而人類(lèi)是有偏見(jiàn)的生物。

近日,麻省理工的博士生在兩項(xiàng)獨(dú)立研究中發(fā)現(xiàn),雖然機(jī)器擅長(zhǎng)識(shí)別人工智能生成的文本,但是很難分辨其中的真假。原因在于訓(xùn)練機(jī)器識(shí)別假新聞的數(shù)據(jù)庫(kù)中充滿(mǎn)了人類(lèi)的偏見(jiàn),因此,訓(xùn)練而成的人工智能也不可避免地帶上了刻板印象。

人類(lèi)偏見(jiàn)是人工智能界普遍存在的沉疴。ImageNetRoulette數(shù)字藝術(shù)項(xiàng)目通過(guò)使用AI分析描述用戶(hù)上傳的圖片,揭示出了這一嚴(yán)峻問(wèn)題。本期全媒派獨(dú)家編譯《紐約時(shí)報(bào)》對(duì)ImageNetRoulette項(xiàng)目的評(píng)論,為你呈現(xiàn)人工智能背后的“隱形偏見(jiàn)”。

一天清晨,當(dāng)網(wǎng)友Tabong Kima正在刷推特時(shí),他看到了一個(gè)名為#ImageNetRoulette的實(shí)時(shí)熱搜。

在這個(gè)熱搜里,用戶(hù)們把自拍上傳到某個(gè)網(wǎng)站上,然后由人工智能來(lái)分析和描述它所看到的每一張臉。ImageNetRoulette就是一家這樣的網(wǎng)站,它把某位男性定義為“孤兒”,或是“不吸煙者”,如果是戴著眼鏡的,則可能被貼上“書(shū)呆子、白癡、怪胎”的標(biāo)簽。

機(jī)器會(huì)給你的照片打“壞人”標(biāo)簽?國(guó)外網(wǎng)紅項(xiàng)目聚焦AI偏見(jiàn)

一位Twitter網(wǎng)友上傳了自己的照片,被AI識(shí)別為“強(qiáng)奸犯嫌疑人”(Rape Suspect),標(biāo)簽位于照片左上角

在Kima看到的推特信息中,這些標(biāo)簽有的準(zhǔn)確,有的奇怪,有的離譜,但都是為了搞笑,于是他也加入了。但結(jié)果卻讓這個(gè)24歲的非裔美國(guó)人很不開(kāi)心——他上傳了一張自己的微笑照片,然后網(wǎng)站給他貼上了“不法分子”和“罪犯”的標(biāo)簽。

“可能是我不懂幽默吧,”他發(fā)了一條推特,“但我沒(méi)覺(jué)得這有什么有趣的?!?/p>

注:截至發(fā)稿,該網(wǎng)站imagenet-roulette.paglen.com已經(jīng)下線,現(xiàn)跳轉(zhuǎn)到www.excavating.ai。后者網(wǎng)頁(yè)上發(fā)布了一篇由原項(xiàng)目創(chuàng)始人撰寫(xiě)的文章《挖掘人工智能:機(jī)器學(xué)習(xí)訓(xùn)練集中的圖像政治》

機(jī)器會(huì)給你的照片打“壞人”標(biāo)簽?國(guó)外網(wǎng)紅項(xiàng)目聚焦AI偏見(jiàn)

人工智能背后:偏見(jiàn)、種族、厭女癥

事實(shí)上,Kima的反應(yīng)正是這家網(wǎng)站想看到的。ImageNetRoulette是一個(gè)數(shù)字藝術(shù)項(xiàng)目,在人工智能迅速改變個(gè)人生活的當(dāng)下,這個(gè)項(xiàng)目旨在揭露某些古怪的、無(wú)根據(jù)的、冒犯的行為,它們正在蔓延到人工智能技術(shù)中,包括被互聯(lián)網(wǎng)公司、公安部門(mén)和其他政府機(jī)構(gòu)廣泛使用的面部識(shí)別服務(wù)。

面部識(shí)別和其他AI技術(shù)都是通過(guò)分析海量數(shù)據(jù)來(lái)學(xué)習(xí)技能,而這些數(shù)據(jù)來(lái)自過(guò)去的網(wǎng)站和學(xué)術(shù)項(xiàng)目,不可避免地包含多年來(lái)未被注意到的細(xì)微偏差和其他缺陷。這也是美國(guó)藝術(shù)家Trevor Paglen和微軟研究員Kate Crawford發(fā)起ImageNetRoulette項(xiàng)目的原因——他們希望更深層次地揭露這個(gè)問(wèn)題。

“我們希望揭露偏見(jiàn)、種族主義和厭女癥如何從一個(gè)系統(tǒng)轉(zhuǎn)移到另一個(gè)系統(tǒng),”P(pán)aglen在電話采訪中說(shuō):“重點(diǎn)在于讓人們理解幕后的操作,看到我們(的信息)一直以來(lái)是如何被處理和分類(lèi)的?!?/p>

作為本周米蘭Fondazione Prada博物館展覽的一部分,這個(gè)網(wǎng)站主要關(guān)注的是知名的大型可視化數(shù)據(jù)庫(kù)ImageNet。2007年,以李飛飛為首的研究人員開(kāi)始討論ImageNet項(xiàng)目,它在“深度學(xué)習(xí)”的興起中發(fā)揮了重要的作用,這種技術(shù)使機(jī)器能夠識(shí)別包括人臉在內(nèi)的圖像。

“Training Humans”攝影展在米蘭Fondazione Prada博物館揭幕,展示人工智能系統(tǒng)如何通過(guò)訓(xùn)練來(lái)觀看并給這個(gè)世界分類(lèi)。

ImageNet匯集了從互聯(lián)網(wǎng)上提取的1400多萬(wàn)張照片,它探索了一種訓(xùn)練AI系統(tǒng)并評(píng)估其準(zhǔn)確性的辦法。通過(guò)分析各種各樣不同的圖像,例如:花、狗、汽車(chē),這些系統(tǒng)可以學(xué)習(xí)如何識(shí)別它們。

在關(guān)于人工智能的討論中,鮮少被提及的一點(diǎn)是,ImageNet也包含了數(shù)千人的照片,每一張都被歸入某一類(lèi)。有些標(biāo)簽直截了當(dāng),如“啦啦隊(duì)”、“電焊工”和“童子軍”;有些則帶有明顯的感情色彩,例如“失敗者、無(wú)望成功的人、不成功的人”和“奴隸、邋遢女人、流氓”。

Paglen和Crawford發(fā)起了應(yīng)用這些標(biāo)簽的ImageNetRoulette項(xiàng)目,以展示觀點(diǎn)、偏見(jiàn)甚至冒犯性的看法如何影響人工智能,不論這些標(biāo)簽看起來(lái)是否無(wú)害。

偏見(jiàn)的蔓延

ImageNet的標(biāo)簽被成千上萬(wàn)的匿名者使用,他們大多數(shù)來(lái)自美國(guó),被斯坦福的團(tuán)隊(duì)雇傭。通過(guò)Amazon Mechanical Turk的眾包服務(wù),他們每給一張照片貼標(biāo)簽就能賺幾分錢(qián),每小時(shí)要瀏覽數(shù)百個(gè)標(biāo)簽。在這個(gè)過(guò)程中,偏見(jiàn)就被納入了數(shù)據(jù)庫(kù),盡管我們不可能知道這些貼標(biāo)簽的人本身是否帶有這樣的偏見(jiàn)。

但他們定義了“失敗者”和“罪犯”應(yīng)該長(zhǎng)什么樣。

這些標(biāo)簽最早來(lái)自另一個(gè)龐大的數(shù)據(jù)集,WordNet,是普林斯頓大學(xué)研究人員開(kāi)發(fā)的一種機(jī)器可讀的語(yǔ)義詞典。然而,該詞典包含了這些煽動(dòng)性的標(biāo)簽,斯坦福大學(xué)ImageNet的研究者們可能還沒(méi)有意識(shí)到這項(xiàng)研究出現(xiàn)了問(wèn)題。

人工智能通常以龐大的數(shù)據(jù)集為基礎(chǔ)進(jìn)行訓(xùn)練,而即使是它的創(chuàng)造者們也并不能完全理解這些數(shù)據(jù)集。“人工智能總是以超大規(guī)模運(yùn)作,這會(huì)帶來(lái)一些后果,”Liz O’Sullivan說(shuō)道。他曾在人工智能初創(chuàng)公司Clarifai負(fù)責(zé)數(shù)據(jù)標(biāo)簽的監(jiān)督工作,現(xiàn)在是民權(quán)和私人組織“技術(shù)監(jiān)督計(jì)劃”(STOP,全稱(chēng)為Surveillance Techonology Oversight Project)的成員,這個(gè)組織的目標(biāo)是提高人們對(duì)人工智能系統(tǒng)問(wèn)題的意識(shí)。

ImageNet數(shù)據(jù)中的許多標(biāo)簽都是十分極端的。但是,同樣的問(wèn)題也可能發(fā)生在看似“無(wú)害”的標(biāo)簽上。畢竟,即使是“男人”和“女人”的定義,也有待商榷。

“給女性(無(wú)論是否成年)的照片貼標(biāo)簽時(shí),可能不包括性別酷兒(nonbinary,即自我認(rèn)為非二元性別的人士)或短發(fā)女性,”O(jiān)’ Sullivan表示,“于是,AI模型里就只有長(zhǎng)發(fā)女性?!?/p>

近幾個(gè)月來(lái),研究者們發(fā)現(xiàn)諸如亞馬遜、微軟和IBM等公司提供的面部識(shí)別服務(wù),都有對(duì)女性和有色人種持有偏見(jiàn)。通過(guò)IamgeNetRoulette項(xiàng)目,Paglen和Crawford希望能引起人們對(duì)這個(gè)問(wèn)題的重視,而他們也的確做到了。隨著這個(gè)項(xiàng)目在推特等網(wǎng)站上走紅,ImageNetRoulette項(xiàng)目近期每小時(shí)產(chǎn)生的標(biāo)簽數(shù)超過(guò)10萬(wàn)個(gè)。

“我們完全沒(méi)想到,它會(huì)以這樣的方式走紅,”Crawford與Paglen說(shuō)道,“它讓我們看到人們對(duì)這件事的真正看法,并且真正參與其中?!?/p>

熱潮之后,隱憂(yōu)重重

對(duì)有些人來(lái)說(shuō),這只是個(gè)玩笑。但另外一些人,例如Kima,則能懂得Crawford和Paglen的用意?!八麄冏龅煤芎?,并不是說(shuō)我以前沒(méi)有意識(shí)到這個(gè)問(wèn)題,但他們把問(wèn)題揭露出來(lái)了”,Kima說(shuō)道。

然而,Paglen和Crawford認(rèn)為,問(wèn)題也許比人們想象得更加嚴(yán)重。

ImageNet只是眾多數(shù)據(jù)集中的一個(gè)。這些數(shù)據(jù)集被科技巨頭、初創(chuàng)公司和學(xué)術(shù)實(shí)驗(yàn)室重復(fù)使用,訓(xùn)練出各種形式的人工智能。這些數(shù)據(jù)庫(kù)中的任何紕漏,都有可能已經(jīng)開(kāi)始蔓延。

如今,許多公司和研究者都在試圖消除這些弊端。為了應(yīng)對(duì)偏見(jiàn),微軟和IBM升級(jí)了面部識(shí)別服務(wù)。今年一月,Paglen和Crawofrod初次探討ImageNet中的奇怪標(biāo)簽時(shí),斯坦福大學(xué)的研究者們禁止了該數(shù)據(jù)集中所有人臉圖像的下載?,F(xiàn)在,他們表示將刪除更多的人臉圖像。

斯坦福大學(xué)的研究團(tuán)隊(duì)向《紐約時(shí)報(bào)》發(fā)表了一份聲明,他們的長(zhǎng)期目標(biāo)是“解決數(shù)據(jù)集和算法中的公平性、問(wèn)責(zé)制度和透明度問(wèn)題?!?/p>

但對(duì)Paglen來(lái)說(shuō),一個(gè)更大的隱憂(yōu)正在逼近——人工智能是從人類(lèi)身上學(xué)習(xí)的,而人類(lèi)是有偏見(jiàn)的生物。

“我們對(duì)圖像的貼標(biāo)簽方式是我們世界觀的產(chǎn)物,”他說(shuō),“任何一種分類(lèi)系統(tǒng)都會(huì)反映出分類(lèi)者的價(jià)值觀?!?/strong>

 

作者:全媒派,公眾號(hào):全媒派(ID:quanmeipai)

本文由 @全媒派 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載

題圖來(lái)自Unsplash,基于CC0協(xié)議

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 文章不錯(cuò)

    來(lái)自廣東 回復(fù)
    1. 學(xué)習(xí)了

      來(lái)自廣東 回復(fù)
  2. 剛看到另一篇文章說(shuō)人臉識(shí)別被小學(xué)生破解了,AI產(chǎn)品經(jīng)理路漫漫呀……

    來(lái)自廣東 回復(fù)
    1. 被小學(xué)生破解只能說(shuō)明人臉識(shí)別算法的不成熟,為什么要讓產(chǎn)品經(jīng)理背鍋。

      來(lái)自江蘇 回復(fù)
    2. 不是讓產(chǎn)品經(jīng)理背鍋的意思哈哈,是想說(shuō)目前市面上的很多AI產(chǎn)品還是很值得深入打磨的,AI產(chǎn)品經(jīng)理的發(fā)展空間還很大

      來(lái)自廣東 回復(fù)
    3. 倒霉咯

      來(lái)自廣東 回復(fù)