人工智能可以開辟性別平等的時代嗎?

1 評論 3023 瀏覽 5 收藏 6 分鐘

越來越多的人已經(jīng)意識到:技術(shù)對于創(chuàng)造一個沒有偏見的世界,是非常有潛力的。

試想一個性別平等的社會:女人不是生孩子、養(yǎng)孩子的工具,男人不是傳統(tǒng)思想上的統(tǒng)治者。人們在這個平等的社會中,扮演的角色是和他們的智慧和興趣一致的,而不是由性別、根深蒂固的狹隘觀點驅(qū)使的。

人工智能可以開辟性別平等的時代嗎?

這樣的社會目前還不存在。幾年前,Malala Yousafzai這位巴基斯坦的、以爭取女性教育而聞名的女子,還因為想要爭取自己的教育而幾乎失去了生命!她的故事并不特殊,女性為了進入主流的聲音,已經(jīng)奮斗了數(shù)百年了。

是的,對待性別平等這個問題,部分國家已經(jīng)比較先進和發(fā)達了。但是,即使在最先進的環(huán)境中,深刻的偏差還是存在的。那么,有沒有什么方法能重新設(shè)計一些由結(jié)果驅(qū)動的社會規(guī)范,而不是由固有的人類偏見驅(qū)使的社會規(guī)范呢?

人工智能也許就能打破數(shù)千年來的、根深蒂固的社會偏見?,F(xiàn)在的技術(shù),可以創(chuàng)造一種使用深度學習和數(shù)據(jù)驅(qū)動的技術(shù),來糾正刻板印象的機制嗎?

深度學習的軟件,試圖模仿人腦的大腦活動,在大腦皮層發(fā)生思考。這個軟件學習識別聲音、圖像和其他數(shù)據(jù)。Ray Kurzweil通過軟件技術(shù),寫了一本名為《如何創(chuàng)造心靈》的書。深度學習的目的是在機器層面重建人類智慧,然而,這種學習的結(jié)果取決于軟件的訓練程度,有偏見的訓練會導致偏倚的結(jié)果。

繼續(xù)說我們的這個實驗,讓我們來看看一個簡單的工作場所中的例子:在會議室,出現(xiàn)了一些性別歧視的言論。

人工智能可以開辟性別平等的時代嗎?

我們想要的結(jié)果是:有人舉起手來,并阻止這樣的言論。在這個簡單的例子中,期望的結(jié)果在很大程度上取決于兩個主要的假設(shè):

  1. 會議室中至少有一位女性 ;
  2. 公司的文化氛圍是能讓她自由地表達她的觀點。

如果這種情況是由人工智能技術(shù)的機器人處理,那么機器人必須對基本假設(shè)進行訓練。不良的訓練會導致不佳的結(jié)果。當機器人接收到性別歧視的輸入時,它需要了解上下文,運用透視圖,然后進行相應的操作。如果機器人沒有被編入女性的觀點,那么它就沒法達到我們預期的結(jié)果。

技術(shù)公司的環(huán)境中,人工智能算法經(jīng)過培訓和測試,因為女性任職人數(shù)不足,缺乏對這種偏見的認識。計算機專業(yè)畢業(yè)的女性只有大約16%,再加上那些根深蒂固的文化和工作態(tài)度,對偏見的認識就更加不足了。

幸運的是,與人類的偏見不同,人工智能的偏差,能通過重新編程機器人的軟件來更正。為了排除偏見,這些行為應該根據(jù)“平等、公平”的原則來分類。就看我們?nèi)绾斡柧毢蜏y試我們的數(shù)據(jù)算法、增加實現(xiàn)這種愿景的可能性了。未來,我們的算法,能在性別和文化的框架中,處理數(shù)據(jù)、糾正機器人的行為、模仿理想的人類語言和觀念!

也許在不久的將來,人工智能會成為我們生活中無處不在的東西,深入保健、行為經(jīng)濟學、政治等多種多樣的領(lǐng)域。為了達到這樣的未來,我們也需要各界人士的幫助,不止是程序員,還有從事醫(yī)療保健、人類學、經(jīng)濟學、金融等方面的專業(yè)人士。

越來越多的人已經(jīng)意識到:技術(shù)對于創(chuàng)造一個沒有偏見的世界,是非常有潛力的。正如Malala倡導“女孩應該接受平等的教育”一樣,將會有更多的倡導者會為之奮斗,建造一個性別平等的社會。

 

本文由 @硅谷密探(微信公眾號 ID : guigudiyixian)) 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自StockSnap.io,基于 CC0 協(xié)議

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!