2018年,人工智能要解決的難題
2018年,更多的科技公司會關注如何讓AI正確為人類服務。
2017年關于殺手級機器人的討論非常熱烈,人工智能也取得了重大的突破。比如,一臺名為Libratus的機器人力勝多名撲克高手。在現(xiàn)實世界中,機器學習被用于改進農業(yè),拓寬醫(yī)療服務覆蓋面。
但是如果你使用過Siri或Alexa,你會發(fā)現(xiàn)人工智能盡管非常熱門,但是仍然有很多事情無法處理或者理解。
理解語意
機器對于文本和語言的理解能力比起過去有飛速發(fā)展,F(xiàn)acebook可以為視力不好的人士描述圖片,谷歌可以根據郵件內容提供回復建議。然而軟件依然理解不了我們的話語和思路?!拔覀兛梢詫W習概念,并通過不同的方式把這些概念結合起來,應用到新的情境之中,”波特蘭州立大學教授Melanie Mitchell說。“但這些AI和機器學習系統(tǒng)就不會。”
Mitchell認為當前軟件還受限于數學家吉安-卡洛·羅塔所說的“思想的屏障”,一些領先的AI團隊正在嘗試克服這一障礙。
其中一項嘗試是讓機器人和人類一樣現(xiàn)實世界和常識有基本的了解。Facebook研究人員正試圖教軟件理解現(xiàn)實,比如通過看視頻。也有團隊側重于讓軟件模仿人類對世界的理解來完成某些行為。谷歌就在打造學習比喻的軟件。Mitchel就體驗過一些系統(tǒng),利用類比的方法和一堆有關世界的概念來解讀照片中的情況。
阻礙機器人革命的現(xiàn)實差距
機器人硬件發(fā)展越來越好了,你可以花500刀買到手掌大小、配備高清攝像頭的無人機。雙腳行走,搬運盒子的機器人也在不斷被改進。但是為什么普通人周圍沒有被各式各樣的機械助手包圍呢?——目前的機器人大腦的技術發(fā)展遠遠落后于肢體技術。
要讓機器人完成特定的任務,就需要針對專門的任務進行編程。他們通過不斷試錯來學習抓住物體,但是這個進程比較緩慢。一個比較可行的方法是讓機器人在虛擬世界中進行訓練,再將訓練所獲得的知識數據下載到實體機器人的身體中。但是現(xiàn)實總是骨感的,虛擬環(huán)境中機器人的訓練成果不一定在現(xiàn)實世界中完全有效。
可喜的是這個差距在縮小。去年10月,谷歌發(fā)布了一批喜人的實驗室結果,模擬與現(xiàn)實機械手臂學會了撿起多種物體,包括膠帶分配器、玩具和梳子。
對致力于自動駕駛汽車的人而言,進一步的進展非常重要。在自動駕駛技術的競賽中,企業(yè)紛紛在模擬街道上部署虛擬汽車,從而減少在實地交通和道路環(huán)境中測試所需的時間和資金。自動駕駛初創(chuàng)企業(yè)Aurora公司CEOChris Urmson說,其團隊的優(yōu)先事項之一就是讓虛擬測試更加適用于現(xiàn)實車輛?!拔磥硪荒曜笥?,如果能利用虛擬測試加速機器學習,那就太好了,”厄姆森說。他之前領導過谷歌母公司Alphabet的自動駕駛汽車項目。
防范AI攻擊
電網、安防攝像頭和手機的軟件中有很多安全漏洞。無人汽車和家用機器人也無法幸免。甚至可能會更糟:機器學習軟件的復雜性為攻擊提供了新的渠道。
今年有研究顯示,你可以在機器學習系統(tǒng)中隱藏一個暗門,使它一收到特定信號,便切換成邪惡模式。紐約大學設計了一個正常運行的路邊系統(tǒng),這個系統(tǒng)一旦看到黃色的便簽紙就會出現(xiàn)問題。比如布魯克林一塊停車路標上貼了一張便簽紙,系統(tǒng)將其識別為限速標志。類似這樣的情況也許會給自動駕駛汽車構成麻煩。
不止是棋盤游戲
2017,擊敗了很多世界冠軍的AlphaGo繼續(xù)進展神速。5月,AlphaGo的增強版在中國擊敗了多名世界級圍棋冠軍。其創(chuàng)造者,Alphabet旗下研究部門DeepMind后來又構建了一個版本,名為AlphaGo Zero,在不學習人類棋步的情況下,自學學會了圍棋。12月,又再度升級,可以學會國際象棋和日本將棋(不過不能同時學)。
上述的成果固然讓人們欣慰,但同時也說明目前的AI軟件還是有局限性。國際象棋、圍棋、將棋雖然很復雜,但規(guī)則卻相對簡單,每走一步雙方都能看到??焖俑F舉未來“情況”這事,計算機是最在行的,但在現(xiàn)實生活中的情況和問題無法如此結構分明
正因如此,DeepMind和Facebook都在2017年開始研究AI在多玩家游戲《星際爭霸》的可能性。目前最好的機器人(出自業(yè)余人士之手)也無法擊敗一般玩家。今年早些時候,DeepMind的研究員?Oriol Vinyals接受采訪時說,他們的軟件現(xiàn)在還不具備規(guī)劃與記憶能力,無法一邊組建并指揮軍隊的同時,預測對手的下一步行為和應對。這些技能也可以讓軟件更好地協(xié)助現(xiàn)實世界的任務,比如辦公室工作或者真實的軍事行動。2018年,《星際爭霸》或類似游戲的重大進展也許預示著AI將會有強大的新用途。
讓AI區(qū)分是非
即便上述領域沒有新的進展,現(xiàn)有AI技術普及之后,經濟與社會的各方面也會發(fā)生重大的變化。當政府和企業(yè)忙于普及AI的同時,也仍有人對AI和機器學習潛在危害的十分擔心。
在近期的NIPS(神經信息處理系統(tǒng)進展大會)機器學習會議上,其中一個主題如何讓AI技術保持在安全且合乎道德的范圍之內。研究人員發(fā)現(xiàn),由于我們的世界跟完美相距甚遠,機器學習系統(tǒng)在接受已有數據的訓練時,會學到不道德或不可取的行為,比如以刻板印象對待男女兩性。有人正在研發(fā)特定手段,用于審核AI系統(tǒng)的內部運作,確保它們在金融與醫(yī)療領域運作時,能夠作出公正的決策。
2018年,更多的科技公司會關注如何讓AI正確為人類服務。谷歌、Facebook、微軟等已經在探討這個問題,并且是非營利機構AI合作組織(Partnership on AI)的成員。該機構將研究并試圖規(guī)范AI對社會的潛在影響。也有其他的第三方部門也開始施壓。一個名為人工智能倫理與治理基金(Ethics and Governance ofArtificial Intelligence Fund)的慈善項目正在支持MIT、哈佛等機構的AI和公共利益研究。紐約大學新成立的AI Now也肩負起了類似的使命。在最近的一項報告中,該研究機構向政府發(fā)出呼吁,要求他們承諾,在刑事司法或福利等領域,不再使用不受公開審查的“黑箱”算法。
原文地址:https://www.wired.com/story/an-old-technique-could-put-artificial-intelligence-in-your-hearing-aid/
#專欄作家#
肥寒,微信公眾號:chanpingdog,人人都是產品經理專欄作家。九年產品經理。做過數字閱讀,電商,社區(qū),目前致力于在線教育。
本文由 @肥寒 翻譯發(fā)布于人人都是產品經理。未經許可,禁止轉載。
題圖來自 unsplash,基于 CC0 協(xié)議
贊