別煽動(dòng)焦慮了,GPT-4還取代不了你
近日OpenAI發(fā)布的GPT-4讓人們對AI模型的能力有了新的認(rèn)知,那么在發(fā)展迅猛的AI人工智能面前,人類最終是否會被其取代?GPT-4真的可以“無所不能”嗎?本篇文章里,作者便針對GPT-4與其對人類的影響進(jìn)行了解讀,一起來看。
程序員要被淘汰了,這可能不是危言聳聽。
這個(gè)職業(yè)原本幾乎是“金飯碗”一樣的存在,技術(shù)門檻高、考驗(yàn)創(chuàng)造力,收入也高。但ChatGPT的問世,改變了這種固有態(tài)勢。
最近這兩天,GPT還升級到了第四代——GPT-4。
要知道,上一代ChatGPT已經(jīng)具有超強(qiáng)的語義理解能力。雖然這種能力僅限于文字處理,但也已經(jīng)有公司在使用ChatGPT相關(guān)技術(shù),替代掉一些初級程序員的工作了。
而GPT-4不光文字理解能力更高,還有超強(qiáng)的圖片理解能力,就連一些互聯(lián)網(wǎng)梗圖都能讀懂。
這還不是GPT-4的全部實(shí)力。在GPT開發(fā)者OpenAI發(fā)布的演示視頻中,GPT-4能根據(jù)一張非常潦草的demo圖,在10秒之內(nèi)生成一個(gè)網(wǎng)站頁面。
10秒,是人類無論如何都不可能達(dá)到的速度,但AI可以。而且才100多天,它就躍進(jìn)到了這個(gè)水平。
下一代GPT又會有多么強(qiáng)大的能力呢?這既讓人期待和興奮,又感覺有點(diǎn)后背發(fā)涼。
一、GPT-4,無所不能?
上一代GPT并不是第一代,版本號其實(shí)是“3.5”。但因?yàn)槠湮淖掷斫饽芰Ρ容^強(qiáng),尤其對話交流表現(xiàn)非?!绊樆?,所以才被稱為“ChatGPT”。
比起很多如同“人工智障”的AI助手,ChatGPT給出的回答更像人類,但也不是毫無漏洞。有用戶問過ChatGPT:“林黛玉三打白骨精是怎么回事?”
ChatGPT還真給胡謅出了一段故事,看起來有點(diǎn)像從網(wǎng)友二創(chuàng)作品中提煉出來的劇情。
林黛玉三打白骨精是怎么回事?/知乎答主@連詩璐
但拿同樣的問題去問GPT-4,它會提醒用戶不要混合《紅樓夢》和《西游記》的劇情。
ChatGPT有點(diǎn)像喝醉了在說胡話,而GPT-4保持了清醒。/知乎答主@連詩璐
如果你以為GPT-4的文字理解能力只停留在“語句”的水平,那你就錯(cuò)了。GPT-4還可以理解“代碼語言”。
在GPT-4的產(chǎn)品視頻中,OpenAI總裁直接把一段1萬字的代碼發(fā)給GPT-4,讓它修bug。結(jié)果GPT-4只用了幾秒鐘就找到了bug,并且分點(diǎn)給出了解決辦法。換做是程序員去找,絕不可能有這個(gè)效率。
這次升級和更新之后,OpenAI還將GPT-4處理文字內(nèi)容的上限拓展到了2.5萬個(gè)字符,這是ChatGPT上限的8倍。這意味著,GPT-4可以處理更大的信息量。
GPT-4更為突出的能力體現(xiàn)在圖片理解方面。
在OpenAI發(fā)布的產(chǎn)品視頻中,開發(fā)者給GPT-4看了一張“用VGA電腦接口給iPhone充電”的圖片,并問GPT-4“笑點(diǎn)在哪里”,GPT-4在條分縷析之后得出了結(jié)論:
“這張圖搞笑的地方在于,它將一個(gè)很大并且過時(shí)的VGA接口插在一個(gè)很小并且現(xiàn)代的智能手機(jī)充電口上,這很荒謬?!?/p>
GPT-4是懂幽默的。
更重要的是,它還能把對圖片和文字的理解結(jié)合起來,同步進(jìn)行。
比如,給GPT-4一些統(tǒng)計(jì)圖表進(jìn)行分析,GPT-4能高效地得出結(jié)論、發(fā)現(xiàn)問題,并迅速反饋給使用者。甚至直接把整篇論文截圖上傳給GPT-4,它都能在幾秒之內(nèi)概括出論文的核心內(nèi)容來。
將來,大公司的財(cái)報(bào)、銷售業(yè)務(wù)數(shù)據(jù)等內(nèi)容,即便圖表內(nèi)容再復(fù)雜、內(nèi)容維度再多、數(shù)據(jù)量再大,只要不超過2.5萬個(gè)字符的限制,GPT-4都能分析得清楚。
如此看來,似乎GPT-4幾乎可以秒殺相當(dāng)一部分人類了,程序員、金融分析師、數(shù)據(jù)分析師、音樂創(chuàng)作人(GPT-4可以自己寫歌)都要下崗。
至少,初級程序員會被淘汰。/微博截圖
二、GPT性能躍進(jìn),留給人類的機(jī)會不多了?
問題來了,GPT-4連代碼里的bug都能自己修,就不怕它自我進(jìn)化,最后產(chǎn)生自主意識取代人類嗎?
答案是:目前不會,因?yàn)镚PT-4也不是完美無缺的。
雖然它是多模態(tài)模型,目前已經(jīng)可以處理文字和圖片兩種“模態(tài)”,這比ChatGPT只能處理文字的“單模態(tài)模型”進(jìn)步了很多,但也僅限于此。
至少,目前它還分析不了聲音和視頻。后續(xù)的版本必然會覆蓋這些“模態(tài)”,以增強(qiáng)AI的理解能力。
事實(shí)上,對聲音的理解會更加復(fù)雜,比如一句話中的語氣、停頓都包含著信息。另外還有非語言類聲音,比如風(fēng)聲、撞擊聲,以及聲音距離、方位的辨別,都是需要突破的點(diǎn)。而視頻圖像會更復(fù)雜,對這些技術(shù)的攻堅(jiān),勢必要耗時(shí)更久。
當(dāng)然,這也只是時(shí)間問題。
目前來看,它還有一個(gè)明顯的問題就是,容易產(chǎn)生“AI幻覺”,生成錯(cuò)誤答案,并出現(xiàn)邏輯錯(cuò)誤。
所謂“AI幻覺”,是指模型過于自信,生成的內(nèi)容與提供的源內(nèi)容無關(guān)或不忠實(shí),有時(shí)會出現(xiàn)聽起來合理,但不正確或荒謬的答案,比如上文中提及的“林黛玉三打白骨精”問答。
中國信通院云計(jì)算與大數(shù)據(jù)研究所所長何寶宏曾在接受采訪時(shí)指出,“ChatGPT的幻覺來自兩個(gè)方面,一是訓(xùn)練數(shù)據(jù)本身,二是訓(xùn)練方法。AI是通過海量數(shù)據(jù)訓(xùn)練出來的,因此這一缺點(diǎn)也與大數(shù)據(jù)的問題一樣:數(shù)據(jù)很精確但錯(cuò)得離譜”。
如果過于依賴AI,那么由這種幻覺導(dǎo)致的不準(zhǔn)確性,顯然會影響一些業(yè)務(wù)的正常進(jìn)行。這就意味著,人工必須對其反饋的分析進(jìn)行復(fù)核,這是AI取代不了的職責(zé)和必要性。
好在GPT迭代至今,其能力都僅限于被動(dòng)響應(yīng)。也就是說,不論是ChatGPT還是GPT-4,它們的信息讀取能力都只是對人類提問的反饋,而不會主動(dòng)去評判或者分析。
這一點(diǎn)“被動(dòng)”的屬性很關(guān)鍵,一方面能讓AI處于從屬地位,只會被動(dòng)解決人類提出的問題。這一點(diǎn),應(yīng)當(dāng)成為AI行業(yè)不可逾越的紅線,否則就會面臨很多麻煩,比如AI的自我演進(jìn),AI的權(quán)益和福利問題,AI越過防火墻進(jìn)行監(jiān)聽,甚至衍生出黑客行為……
另一方面,這也對人類提出了更高的要求,比如提問能力。
很顯然,GPT-4是根據(jù)指令進(jìn)行分析的,那就是說,只有在指令或提問明確、清晰的情況下,GPT-4才能給出針對性的答案。否則,如果問得很淺,那得到的反饋也只會是和百科一樣的表面回答。
一個(gè)會讓人警鈴大作的消息是,著名金融服務(wù)公司摩根士丹利已經(jīng)在實(shí)際業(yè)務(wù)中使用了GPT。
摩根士丹利的工作人員所面對的巨大內(nèi)容庫,涵蓋了投資策略、市場研究和評論以及分析師見解等長達(dá)數(shù)十萬頁的內(nèi)容。這些信息大多以PDF格式分布在內(nèi)部網(wǎng)站上,需要瀏覽大量信息才能找到特定問題的答案,檢索起來費(fèi)時(shí)費(fèi)力。
而GPT高效的信息處理能力,讓這部分工作量得到了有效疏解。
但這也意味著,這部分信息處理類的初級崗位將要被淘汰,留下來的人必然要具備更強(qiáng)的洞察力,并且能提出好的問題來引導(dǎo)GPT。
所以,就目前來看,人類還不用為被AI取代而擔(dān)心,但絕對不能躺平大意,而是要不斷增強(qiáng)自己的水平,讓AI取代不了自己。
作者:土衛(wèi)六;編輯:晏非;校對:賴曉妮
來源公眾號:新周刊(ID:new-weekly),一本雜志和一個(gè)時(shí)代的體溫。
本文由人人都是產(chǎn)品經(jīng)理合作媒體 @新周刊 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于CC0協(xié)議
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。
- 目前還沒評論,等你發(fā)揮!