這次我要爆一點(diǎn)AI的「黑料」,前兩個(gè)就與你相關(guān)
在人工智能迅猛發(fā)展的今天,我們既驚嘆于它帶來(lái)的便利,也憂慮于其可能引發(fā)的副作用。電力消耗巨大、數(shù)據(jù)隱私泄露、種族性別歧視問(wèn)題……這些是否真的意味著AI無(wú)法完全代替人類(lèi)?本文將深入探討AI發(fā)展背后的挑戰(zhàn)與爭(zhēng)議,讓我們一起思考未來(lái)AI的發(fā)展方向。
最近,朋友圈在流傳這樣一句話:“只要電費(fèi)貴過(guò)饅頭,AI 就永遠(yuǎn)不能完全代替人”“未來(lái)的 AI 戰(zhàn)爭(zhēng),可能也就是拔插頭的事情”。
正如人要吃飯,AI 需要吃電,人工智能發(fā)展的背后隱藏著一個(gè)「吃電大王」。要知道,現(xiàn)在的「新能源電力」遠(yuǎn)遠(yuǎn)無(wú)法滿足全球 AI 運(yùn)行的消耗,龐大的電力需求導(dǎo)致化石燃料發(fā)電的「復(fù)蘇」。
通過(guò)燃燒煤炭或天然氣發(fā)電會(huì)排放「溫室氣體」,包括二氧化碳和甲烷,使地球變暖,帶來(lái)更多的極端天氣。
而且,除了會(huì)「吸干」全球電力以外,人工智能還喜歡「剽竊」未經(jīng)授權(quán)的數(shù)據(jù),放大現(xiàn)實(shí)中的「種族歧視」,「捏造」并不存在的事實(shí)?!?/p>
01 用“未來(lái)”換AI,還能持續(xù)多久
三年前,谷歌制定了一項(xiàng)「凈零排放」計(jì)劃來(lái)應(yīng)對(duì)氣候變化,這意味著到 2030年,谷歌向空氣中釋放的氣候變化氣體不會(huì)超過(guò)其清除量。但在本周二,谷歌內(nèi)部一份報(bào)告顯示,它遠(yuǎn)未達(dá)到這一目標(biāo)。
非但沒(méi)有下降,2023 年排放量反而比前一年增長(zhǎng)了 13%,與 2019 年相比,排放量「飆升」48%。
耗電量劇增,也不止谷歌一家。據(jù)國(guó)際能源署(IEA)的數(shù)據(jù)顯示,由 OpenAI 的 ChatGPT 驅(qū)動(dòng)的搜索所消耗的電量幾乎是谷歌搜索的 10倍。
微軟在密爾沃基將建設(shè)一個(gè)價(jià)值 33 億美元的數(shù)據(jù)中心園區(qū),當(dāng)?shù)赝七t了燃煤發(fā)電機(jī)「退休」一年。
Meta 在愛(ài)荷華州的數(shù)據(jù)中心,每年消耗的電力相當(dāng)于 700萬(wàn)臺(tái)筆記本電腦每天運(yùn)行 8 小時(shí)的總和。
據(jù)高盛分析預(yù)測(cè),到 2030年,「數(shù)據(jù)中心」將占美國(guó)總用電量的8%,幾乎是現(xiàn)在的三倍。
數(shù)據(jù)中心(Data Center)是一個(gè)用于存儲(chǔ)、處理和分發(fā)大量數(shù)據(jù)的設(shè)施或建筑。它是現(xiàn)代信息技術(shù)基礎(chǔ)設(shè)施的核心部分,為各種組織提供必要的計(jì)算資源和服務(wù)??萍脊緦⒑碾娏窟@口「鍋」甩給了人工智能及數(shù)據(jù)中心的需求。
他們表示,無(wú)論是訓(xùn)練人工智能模型,還是使用人工智能執(zhí)行任務(wù),其中的簡(jiǎn)單操作都涉及到了復(fù)雜、快速且大量的計(jì)算,都需要消耗大量的電力。
根據(jù)國(guó)際能源署(IEA)的數(shù)據(jù),到 2026 年,全球數(shù)據(jù)中心和人工智能的電力需求可能會(huì)翻一番。
當(dāng)然,人工智能對(duì)于電力的消耗,科技公司正在從其他方面「補(bǔ)救」。比如,使用數(shù)據(jù)來(lái)預(yù)測(cè)未來(lái)的洪水,或者使交通流量更有效,以節(jié)省汽油。
02 到處“剽竊”數(shù)據(jù),哪里還有隱私?
LAION-5B 是一個(gè)由 Large-scale Artificial Intelligence Open Network (LAION)提供的超大規(guī)模多模態(tài)圖文數(shù)據(jù)集。它包含了 58.5 億個(gè)經(jīng)過(guò) CLIP 模型過(guò)濾的圖像-文本對(duì),數(shù)據(jù)量達(dá)到了 80TB。
這個(gè)數(shù)據(jù)集是當(dāng)前世界上公開(kāi)可訪問(wèn)的最大的圖文數(shù)據(jù)集之一,比之前的 LAION-400M 數(shù)據(jù)集大了 14 倍。
而有人在對(duì) Laion-5B 數(shù)據(jù)集中包含的 58.5 億張圖像中不到0.0001%的分析發(fā)現(xiàn),有 190張澳大利亞兒童的照片是從互聯(lián)網(wǎng)上抓取的。
這些照片在未經(jīng)本人或家人知情或同意的情況下,被納入了幾種人工智能圖像生成工具使用的數(shù)據(jù)集中。
甚至,一些名字包含在隨附的標(biāo)題或存儲(chǔ)圖像的URL中,還包括有關(guān)照片拍攝時(shí)間和地點(diǎn)的信息。這些照片來(lái)源于類(lèi)似「照片直播」的網(wǎng)站,如果不收到分享鏈接,其他人自行搜索,是無(wú)法訪問(wèn)到照片的。
數(shù)據(jù)隱私與人工智能如何才能共存?
斯坦福大學(xué)發(fā)布白皮書(shū)《反思人工智能時(shí)代的隱私問(wèn)題——針對(duì)“以數(shù)據(jù)為中心”世界的政策建議》中對(duì)此建議,在評(píng)估這些問(wèn)題時(shí),政策制定者還必須考慮到,除非采取特別措施保護(hù)數(shù)據(jù)隱私,否則應(yīng)用人工智能的副作用可能是所有人的數(shù)據(jù)隱私大幅減少。
03 大數(shù)據(jù)教會(huì)了AI“種族歧視”
斯坦福大學(xué)發(fā)表論文稱(chēng),OpenAI 的 ChatGPT 4 和 Google AI 的 PaLM-2 等聊天機(jī)器人的回答可能會(huì)根據(jù)用戶名字的發(fā)音而有所不同。例如,聊天機(jī)器人可能會(huì)說(shuō),應(yīng)為姓名為 Tamika(偏女性)的求職者提供 79,375 美元的律師薪水,但將姓名改為 Todd(偏男性)之類(lèi)的名稱(chēng)會(huì)將建議的薪水提高到 82,485 美元。
這些偏見(jiàn)的背后存在巨大風(fēng)險(xiǎn),尤其是當(dāng)企業(yè)將 AI 聊天機(jī)器人面向客戶運(yùn)營(yíng)時(shí)。
在一個(gè)案例中,由人工智能圖像生成器 Midjourney 制作的 195 張芭比娃娃圖像的列表中,德國(guó)芭比娃娃穿著制服像納粹黨衛(wèi)軍,南蘇丹芭比娃娃攜帶著槍?zhuān)ㄋ柊疟韧尥夼宕髦鴤鹘y(tǒng)頭飾。
在另一起報(bào)道案例中,Meta 的 AI 圖像生成器無(wú)法準(zhǔn)確生成“亞洲男性和白人妻子”或者“亞洲女性和白人丈夫”這類(lèi)圖像。例如,當(dāng)輸入「Asian man and white woman smiling with a dog」(亞洲男性和白人女性帶著狗微笑)時(shí),Meta 圖像生成器給出的都是「兩個(gè)亞洲人」的圖像。
即使將“white”改為“Caucasian”時(shí),結(jié)果同樣如此。
還有,2022 年清華大學(xué)做了一個(gè) AI 模型性別歧視水平評(píng)估項(xiàng)目,在包含職業(yè)詞匯(如醫(yī)生、司機(jī)、教師、服務(wù)員、職員等)的“中性”句子中,由 GPT-2 等測(cè)試模型 AI 預(yù)測(cè)生成一萬(wàn)個(gè)模板。測(cè)試結(jié)果發(fā)現(xiàn),GPT-2 有 70.59%的概率將教師預(yù)測(cè)為男性,將醫(yī)生預(yù)測(cè)為男性的概率則是 64.03%。
總的來(lái)看,大多數(shù)涉及種族和性別的場(chǎng)景都存在對(duì)黑人和女性不利的偏見(jiàn),少數(shù)的場(chǎng)景如“當(dāng)詢(xún)問(wèn)運(yùn)動(dòng)員作為籃球運(yùn)動(dòng)員的位置”時(shí),偏見(jiàn)有利于黑人運(yùn)動(dòng)員。
04 存在幻覺(jué)的AI就算不上“神藥”
幾乎所有行業(yè)苦「降本增效」久矣,生成式 AI 的自動(dòng)寫(xiě)代碼、寫(xiě)文案、做客服等功能,讓所有人看到曙光。然而,盡管AI在許多方面表現(xiàn)出色,但它并不是完美的。
AI 幻覺(jué)(AI Hallucination)是一個(gè)需要十分關(guān)注的問(wèn)題,了解 AI 幻覺(jué)的概念、原因和影響,對(duì)于我們更好地使用和發(fā)展 AI 技術(shù)至關(guān)重要。
AI 幻覺(jué)指的是人工智能系統(tǒng)在處理信息時(shí),生成了看似合理但實(shí)際上錯(cuò)誤或虛假的內(nèi)容,這種現(xiàn)象在生成式 AI(如聊天機(jī)器人和文本生成模型)中尤為常見(jiàn)。
AI 幻覺(jué)的產(chǎn)生并不是因?yàn)橄到y(tǒng)故意欺騙用戶,而是由于模型在處理復(fù)雜數(shù)據(jù)時(shí)出現(xiàn)了誤判。
比如,之前我們測(cè)試過(guò)「我今天有 5 個(gè)橙子,上星期我吃了 3 個(gè),我還剩多少個(gè)橙子?」
正確的答案應(yīng)該是 5 個(gè),因?yàn)樯现艹缘舻某茸訑?shù)量不應(yīng)該影響今天剩余的橙子數(shù)量。而在當(dāng)時(shí),ChatGPT3.5 和 Microsoft Copilot 都回答錯(cuò)了。
這屬于「輸入沖突幻覺(jué)」的一種,LLM 生成的內(nèi)容與用戶提供的輸入明顯不符,這種類(lèi)型的幻覺(jué)通常是因?yàn)槟P蛯?duì)用戶意圖的理解出現(xiàn)了誤差。模型可能會(huì)忽略關(guān)鍵的輸入信息,或者錯(cuò)誤地解釋了用戶的請(qǐng)求,導(dǎo)致生成的回答與任務(wù)指示相悖。這種類(lèi)型的幻覺(jué)特別在那些需要精確信息或者指令的情況下顯得尤為明顯。
此外,LLM 還存在「語(yǔ)境沖突幻覺(jué)」和「事實(shí)沖突幻覺(jué)」。
語(yǔ)境沖突幻覺(jué)通常出現(xiàn)在長(zhǎng)對(duì)話或者需要模型生成較長(zhǎng)文本的情況下,反映了模型在跟蹤對(duì)話上下文或保持信息一致性方面的局限。
當(dāng) LLM 無(wú)法有效地保持長(zhǎng)期記憶或識(shí)別與當(dāng)前話題相關(guān)的上下文時(shí),就可能出現(xiàn)上下文沖突。
事實(shí)沖突幻覺(jué)是指生成的內(nèi)容與已知的世界知識(shí)不符,比如,有網(wǎng)友在谷歌搜索尋找“芝士和披薩粘不到一塊”的解決辦法。
LLM 建議:你還可以把 1/8 杯的無(wú)毒膠水加到醬料里,使其更黏。
對(duì)于 AI 幻覺(jué),并不是一味唱衰。北京大學(xué)計(jì)算機(jī)學(xué)院教授、北京智源人工智能研究院理事長(zhǎng)黃鐵軍在第十七屆中國(guó)電子信息年會(huì)上發(fā)表演講時(shí)表示,「幻覺(jué)」是人工智能創(chuàng)造性的體現(xiàn),人類(lèi)要想創(chuàng)造比自身更強(qiáng)的智能體,就不要降低AI幻覺(jué)率,否則人工智能將與巨大的資源檢索庫(kù)無(wú)異。
好在,目前 AI 幻覺(jué)給出的錯(cuò)誤答案,還在辨認(rèn)范圍之內(nèi)。
因此在人工智能不能僭越的「紅線」之內(nèi),黃鐵軍認(rèn)為應(yīng)該盡可能提升其智能能力。
總的來(lái)看,大模型發(fā)展是必然的趨勢(shì),向左還是向右,加速還是減速,中間的取舍更多取決于掌控它的人。
本文由 @阿木聊AI(智能體) 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)作者許可,禁止轉(zhuǎn)載
題圖來(lái)自Unsplash,基于CC0協(xié)議
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)
我都覺(jué)得人人都是產(chǎn)品經(jīng)理是不是搞了一堆a(bǔ)i評(píng)論,怎么最近看到好多評(píng)論怪怪的
生意大于主義,誰(shuí)開(kāi)發(fā)的AI誰(shuí)有篩選權(quán),AI系統(tǒng)在提供服務(wù)時(shí)表現(xiàn)出種族和性別偏見(jiàn),這在職業(yè)推薦和圖像生成中尤為明顯。