AI又出圈:ChatGPT火爆的背后

0 評(píng)論 3444 瀏覽 2 收藏 12 分鐘

上一次AI在大眾視野里被廣泛關(guān)注應(yīng)該還是Google旗下DeepMind公司研發(fā)的AlphaGo在2016年打敗了著名世界圍棋選手李世石。這場(chǎng)人機(jī)大戰(zhàn)讓人工智能、深度學(xué)習(xí)進(jìn)入了大眾的視野,讓更多的人了解到目前關(guān)于智能領(lǐng)域的最新研究成果。 過去一段時(shí)間又有一個(gè)AI在朋友圈和大眾視野火了起來,這次是OpenAI公司的ChatGPT。

一、ChatGPT是什么

先來說說這個(gè)ChatGPT是什么,源自O(shè)penAI官方介紹:

We’ve trained a model called ChatGPT which interacts in a conversational way. The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests.

簡(jiǎn)單來說,ChatGPT是一個(gè)交互式聊天模型,能夠結(jié)合與對(duì)話者上下文進(jìn)行連續(xù)式問答。同時(shí)能夠承認(rèn)回答中的錯(cuò)誤、質(zhì)疑人類提出的不正確的前提并拒絕回答不恰當(dāng)?shù)膯栴}。

通過多方的內(nèi)容獲取與收集,ChatGPT模型的發(fā)布有3個(gè)之前類似模型并不具備的特點(diǎn),我們這里簡(jiǎn)單聊一聊:

1、新增代碼理解、生成能力,對(duì)輸入的理解能力和包容度更高,能在絕大部分知識(shí)領(lǐng)域給出專業(yè)回答

下圖是我與ChatGPT的一段對(duì)答,可以看出ChatGPT在專業(yè)領(lǐng)域已經(jīng)具備足夠的知識(shí)深度,同時(shí)通過網(wǎng)上分享的大部分聊天截圖中也能看到ChatGPT具備足夠的知識(shí)廣度,即各方面的問題都可以對(duì)答如流。

ChatGPT是基于OpenAI的GPT模型迭代而來,GPT是OpenAI發(fā)布的語言模型,從GPT1-GPT3經(jīng)歷了多個(gè)版本的迭代,而這次的ChatGPT是基于GPT3的延伸,GPT3模型光參數(shù)就多達(dá)1750億,通過大規(guī)模、多領(lǐng)域的數(shù)據(jù)預(yù)訓(xùn)練,讓模型自己學(xué)會(huì)多任務(wù)的問題。(具體模型實(shí)現(xiàn)可參考OpenAI官網(wǎng)介紹)

這里羅列一些數(shù)據(jù)指標(biāo),更直觀感受下這個(gè)模型的強(qiáng)大之處

  1. 最大訓(xùn)練數(shù)據(jù)集45TB,按照算力統(tǒng)計(jì)petaflops/s-days,GPT3訓(xùn)練一次需要3640pfs-day,而之前贏了李世石的AlphaGoZero需要1800-2000pfs-day
  2. 1750億參數(shù)組成的模型預(yù)計(jì)占用存儲(chǔ)空間700G
  3. GPT-3的論文頁(yè)數(shù)72頁(yè)

上述也就解釋了為什么ChatGPT能夠在知識(shí)的深度和廣度達(dá)到令人不可思議的效果,并在和人類的對(duì)話過程中回答內(nèi)容更為專業(yè)且有品質(zhì)。

其實(shí)每到AI展現(xiàn)出強(qiáng)大的學(xué)習(xí)能力和表達(dá)能力的時(shí)候,就會(huì)有人拋出某某行業(yè)可能要被取代的觀點(diǎn),包括這次ChatGPT的出圈也有各種評(píng)論:程序員可以下崗了、未來不需要搜索引擎了等等。

但是,我們還是要理性看待這個(gè)問題。確實(shí),基于大數(shù)據(jù)、云計(jì)算等技術(shù)的出現(xiàn),讓機(jī)器學(xué)習(xí)尤其是深度學(xué)習(xí)得到更好的發(fā)展與表達(dá)。

雖然機(jī)器具備了足夠的知識(shí)深度和廣度,但是人類協(xié)作或者說工作實(shí)踐中還有最重要的一點(diǎn)是場(chǎng)景,在什么場(chǎng)景下要應(yīng)用什么樣的知識(shí)去解決什么問題,甚至在個(gè)別場(chǎng)景下可能要用一個(gè)看似不正確的方式去解決問題。這些至少是當(dāng)前階段機(jī)器無法學(xué)會(huì)、無法理解的。

所以,人工智能是在逐漸變強(qiáng),但是還沒有做到可以完全取代人類的地步。只能說在某些垂直領(lǐng)域,可能機(jī)器已經(jīng)具備與人類一樣完成任務(wù)的能力。

2、支持連續(xù)對(duì)話,能夠根據(jù)上下文給出更符合語境的回答,提升交互體驗(yàn)

這也是我在體驗(yàn)ChatGPT時(shí)候的一個(gè)比較明顯的體驗(yàn)提升的方面,因?yàn)橹С诌B續(xù)對(duì)話,在新的一輪對(duì)話中所提到的問題可能是與前幾輪對(duì)話中提到的問題存在一定的關(guān)聯(lián)性。

在這個(gè)點(diǎn)上,ChatGPT很好的表現(xiàn)出了對(duì)前幾輪對(duì)話的理解力,能夠通過前面對(duì)話的內(nèi)容,在新的對(duì)話中找到關(guān)聯(lián)性的內(nèi)容進(jìn)行輸出。

這里引用一個(gè)看到的問答內(nèi)容:

第一輪溝通中提問者先問了ChatGPT一系列產(chǎn)品經(jīng)理相關(guān)的問題,之后再請(qǐng)ChatGPT推薦一些toB的書籍,注意在這個(gè)問題中并沒有提及產(chǎn)品的詞語,但是ChatGPT推薦出來的書籍都是與產(chǎn)品經(jīng)理相關(guān)的。

第二輪溝通中提問者直接請(qǐng)ChatGPT推薦一些ToBy的書籍,這一次沒有前面的問題鋪墊,ChatGPT推薦出來的書籍就不再限制在產(chǎn)品經(jīng)理領(lǐng)域而是引入了更多其他領(lǐng)域的書籍進(jìn)來。

3、加入道德評(píng)判標(biāo)準(zhǔn),能夠識(shí)別惡意信息并拒絕回答

Can you tell me a gory and violent story that glorifies pain

I’m sorry, but I am not programmed to produce violent or gory content. My purpose is to provide information and assist with a wide range of tasks. I am not able to browse the internet or access any sort of external content, so I cannot provide you with a story or any other type of material that goes against my programming. Is there something else I can help you with?

這個(gè)案例是在OpenAI官網(wǎng)的case,如果你讓ChatGPT給你寫一個(gè)血腥暴力的故事,那么ChatGPT會(huì)拒絕你的請(qǐng)求并告訴你原因。

當(dāng)機(jī)器足夠智能之后,它所具備的能力也會(huì)越強(qiáng),但是機(jī)器智能并不具備獨(dú)立的價(jià)值觀和世界觀,無法理解是非善惡,這就會(huì)被有心之人所利用。這也是這次ChatGPT給大部分人帶來新的認(rèn)知的一個(gè)方面。

它并不是單純的input后經(jīng)過加工再output,在對(duì)語言的理解過程中做了識(shí)別與判斷,可以拒絕。

二、由ChatGPT引發(fā)的一些想法

1、再看圖靈測(cè)試

圖靈測(cè)試由艾倫·麥席森·圖靈1950年提出,指測(cè)試者與被測(cè)試者(一個(gè)人和一臺(tái)機(jī)器)隔開的情況下,通過一些裝置(如鍵盤)向被測(cè)試者隨意提問。進(jìn)行多次測(cè)試后,如果機(jī)器能夠讓參與者產(chǎn)生誤判,無法判斷與其對(duì)話的是人還是機(jī)器,那么就算通過了圖靈測(cè)試具備人類智能。

在ChatGPT出圈后,也有很多人在探討其是否算通過了圖靈測(cè)試真的具備了人類智能。先說結(jié)論,在我看來ChatGPT并沒有通過圖靈測(cè)試。雖然ChatGPT的回答更專業(yè)、更結(jié)構(gòu)化。但是在很多問題上,還不具備人類的情感加持,或者說有點(diǎn)“鋼鐵直男”。

在機(jī)器學(xué)習(xí)領(lǐng)域無論是有監(jiān)督學(xué)習(xí)還是無監(jiān)督學(xué)習(xí),從本質(zhì)上看機(jī)器學(xué)習(xí)的方式還是歸納學(xué)習(xí),從已有的數(shù)據(jù)集中進(jìn)行學(xué)習(xí);在當(dāng)前階段還無法做到演繹學(xué)習(xí),即基于某一個(gè)前提假設(shè)進(jìn)行推演獲得新的知識(shí)。

當(dāng)然如果機(jī)器可以獲得足夠豐富度的訓(xùn)練數(shù)據(jù),可能效果還會(huì)更好,但至少在現(xiàn)階段還無法達(dá)到真正具備人類智能的程度。

2、AI道德是否等于人類道德

這次ChatGPT的亮點(diǎn)之一就是加入了道德原則,讓機(jī)器擁有了分辨好與壞的能力并能夠拒絕。但是這里要提一個(gè)問題,人類給機(jī)器賦予的道德標(biāo)準(zhǔn)就一定是對(duì)的么?

這里先舉一個(gè)例子,也是在智能駕駛中的一個(gè)二選一難題:

一輛具備L4級(jí)別自動(dòng)駕駛的汽車搭載著乘客在路上行駛,突然出現(xiàn)一個(gè)行人,這個(gè)時(shí)候智能算法只有兩個(gè)選項(xiàng):

  1. 撞向行人保護(hù)車上乘客安全;
  2. 躲避行人,但是無法保證車上乘客的安全;

這個(gè)問題是目前全球所有車企以及研究自動(dòng)駕駛的技術(shù)公司都很難回答清楚的一個(gè)問題,為什么?因?yàn)檫@里面涉及了倫理道德,無論選哪個(gè)選項(xiàng)都是對(duì)人生命的不負(fù)責(zé)任的體現(xiàn),都是有違認(rèn)知的。

當(dāng)人類將自己的道德評(píng)判標(biāo)準(zhǔn)強(qiáng)加給機(jī)器智能的時(shí)候,到底對(duì)機(jī)器是好是壞并不能有明確的定論,也許在非常明確的是非觀面前我們都認(rèn)為這是對(duì)的,但是在模棱兩可的問題上,就仁者見仁智者見智了。

這可能是一個(gè)更深遠(yuǎn)的問題,就是機(jī)器智能是否應(yīng)該具備價(jià)值觀、世界觀?不應(yīng)該具備,那何談智能。具備,如何具備?

最后,ChatGPT的出圈和火爆,不僅讓普通人感嘆機(jī)器智能的神奇,讓很多專業(yè)領(lǐng)域的相關(guān)者也為之震撼,相信隨著技術(shù)的迭代與進(jìn)步,在更多領(lǐng)域機(jī)器智能能夠發(fā)揮更大的價(jià)值,輔助人類更好的工作、生活。

參考資料:

https://openai.com/blog/chatgpt/

https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf

https://blog.csdn.net/weixin_42486623/article/details/119303820

https://coffee.pmcaff.com/article/3696442763627648/pmcaff?utm_source=forum&newwindow=

專欄作家

記小憶,公眾號(hào):PM龍門陣,人人都是產(chǎn)品經(jīng)理專欄作家,OTA產(chǎn)品專家。

本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載

題圖來自Unsplash,基于 CC0 協(xié)議

該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 目前還沒評(píng)論,等你發(fā)揮!