AI繪畫(huà)何以突飛猛進(jìn)? 從歷史到技術(shù)突破, 一文讀懂火爆的AI繪畫(huà)發(fā)展史
作者深感當(dāng)今AI繪畫(huà)的飛速進(jìn)展或許已遠(yuǎn)超所有人的預(yù)期,所以本文介紹了包括AI繪畫(huà)的歷史,以及最近的突破性進(jìn)展,并反思了AI繪畫(huà)的突破對(duì)人類(lèi)意味著什么,值得好好和大伙兒梳理一下,我們一起來(lái)看看吧!
前言
自從前段時(shí)間偶然間被當(dāng)下AI繪畫(huà)的水平震住之后(超越一切的AI作畫(huà)神器,和它創(chuàng)作的234個(gè)盔甲美女未來(lái)戰(zhàn)士) ,作者深感當(dāng)今AI繪畫(huà)的飛速進(jìn)展或許已遠(yuǎn)超所有人的預(yù)期。 而這里的前因后果,包括AI繪畫(huà)的歷史,以及最近的突破性進(jìn)展,值得好好和大伙兒梳理和分享一下。 因此有了本文。
本文分為如下幾小節(jié):
- 2022,進(jìn)擊的AI繪畫(huà)
- AI繪畫(huà)的歷史
- AI繪畫(huà)何以突飛猛進(jìn)
- 頂級(jí)AI繪畫(huà)模型的PK
- AI繪畫(huà)的突破對(duì)人類(lèi)意味著什么
一、2022,進(jìn)擊的AI繪畫(huà)
今年以來(lái),輸入文本描述自動(dòng)生成圖片的AI繪畫(huà)神器突然雨后春筍的冒了出來(lái)。
首先是Disco Diffusion。
Disco Diffusion 是在今年 2 月初開(kāi)始爆紅的一個(gè) AI 圖像生成程序,它可以根據(jù)描述場(chǎng)景的關(guān)鍵詞渲染出對(duì)應(yīng)的圖像:
到了今年4月,著名人工智能團(tuán)隊(duì)OpenAI 也發(fā)布了新模型 DALL·E 2代,該名稱(chēng)來(lái)源于著名畫(huà)家達(dá)利(Dalí)和機(jī)器人總動(dòng)員(Wall-E),同樣支持從文本描述生成效果良好的圖像。
而很多讀者對(duì)AI繪畫(huà)開(kāi)始產(chǎn)生特別的關(guān)注,或許是從以下這幅AI作品鬧出的新聞開(kāi)始的:
這是一幅使用AI繪畫(huà)服務(wù) MidJourney 生成的數(shù)字油畫(huà),生成它的用戶以這幅畫(huà)參加美國(guó)科羅拉多州博覽會(huì)的藝術(shù)比賽,奪得了第一名。 這件事被曝光之后引發(fā)了網(wǎng)絡(luò)上巨大的爭(zhēng)論至今。
目前 AI繪畫(huà)的技術(shù)仍在不斷變化發(fā)展中,其迭代之快,完全可以用”日新月異”來(lái)形容。即使把今年年初的AI繪畫(huà)和現(xiàn)在相比,效果也有天壤之別。
在年初的時(shí)候,用Disco Diffusion可以生成一些很有氛圍感的草圖,但基本還無(wú)法生成人臉; 僅僅2個(gè)月后,DALL-E 2已經(jīng)可以生成準(zhǔn)確的五官; 現(xiàn)在,最強(qiáng)大的Stable Diffusion在畫(huà)作的精致程度和作畫(huà)速度上更是有了一個(gè)量級(jí)的變化。
AI繪畫(huà)這項(xiàng)技術(shù)并不是近年才有的,但是今年以來(lái),AI產(chǎn)出作品的質(zhì)量以肉眼可見(jiàn)的速度日益提升,而效率也從年初的一個(gè)小時(shí)縮短到現(xiàn)在的十幾秒。
在這個(gè)變化后面,究竟發(fā)生了什么事情?就讓我們先全面回顧一下AI繪畫(huà)的歷史,再來(lái)理解一下,這一年多來(lái),AI繪畫(huà)技術(shù)足以載入史冊(cè)的突破發(fā)展。
二、AI繪畫(huà)的歷史
AI繪畫(huà)的出現(xiàn)時(shí)間可能比很多人想象的要早。
計(jì)算機(jī)是上世紀(jì)60年代出現(xiàn)的,而就在70年代,一位藝術(shù)家,哈羅德·科恩Harold Cohen(畫(huà)家,加利福尼亞大學(xué)圣地亞哥分校的教授) 就開(kāi)始打造電腦程序”AARON”進(jìn)行繪畫(huà)創(chuàng)作。 只是和當(dāng)下AI繪畫(huà)輸出數(shù)字作品有所不同,AARON是真的去控制一個(gè)機(jī)械臂來(lái)作畫(huà)的。
Harold 對(duì) AARON的改進(jìn)一直持續(xù)了幾十年,直到他離世。 在80年代的時(shí)候,ARRON”掌握”了三維物體的繪制; 90年代時(shí),AARON能夠使用多種顏色進(jìn)行繪畫(huà),據(jù)稱(chēng)直到今天,ARRON仍然在創(chuàng)作。
不過(guò),AARON的代碼沒(méi)有開(kāi)源,所以其作畫(huà)的細(xì)節(jié)無(wú)從知曉,但可以猜測(cè),ARRON只是以一種復(fù)雜的編程方式描述了作者Harold本人對(duì)繪畫(huà)的理解 — 這也是為什么ARRON經(jīng)過(guò)幾十年的學(xué)習(xí)迭代,最后仍然只能產(chǎn)生色彩艷麗的抽象派風(fēng)格畫(huà)作,這正是 Harold Cohen 本人的抽象色彩繪畫(huà)風(fēng)格。 Harold用了幾十年時(shí)間,把自己對(duì)藝術(shù)的理解和表現(xiàn)方式通過(guò)程序指導(dǎo)機(jī)械臂呈現(xiàn)在了畫(huà)布上。
(左:ARRON和哈羅德??贫?右: ARRON 在 1992 年的創(chuàng)作作品)
盡管難說(shuō)AARON如何智能,但作為第一個(gè)自動(dòng)作畫(huà)且真的在畫(huà)布上作畫(huà)的程序,給予它一個(gè)AI作畫(huà)鼻祖的稱(chēng)號(hào),倒也符合其身份。
2006年,出現(xiàn)了一個(gè)類(lèi)似ARRON的電腦繪畫(huà)產(chǎn)品 The Painting Fool。 它可以觀察照片,提取照片里的塊顏色信息,使用現(xiàn)實(shí)中的繪畫(huà)材料如油漆,粉彩或者和鉛筆等進(jìn)行創(chuàng)作。
以上這兩個(gè)例子算是比較”古典”方式的電腦自動(dòng)繪畫(huà),有點(diǎn)像一個(gè)學(xué)步的嬰兒,有一點(diǎn)樣子,但從智能化的角度來(lái)看是相當(dāng)初級(jí)的。
而現(xiàn)在,我們所說(shuō)的”AI繪畫(huà)”概念,更多指的是基于深度學(xué)習(xí)模型來(lái)進(jìn)行自動(dòng)作圖的計(jì)算機(jī)程序。 這個(gè)繪畫(huà)方式的發(fā)展其實(shí)是比較晚的。
在2012年 Google兩位大名鼎鼎的AI大神,吳恩達(dá)和Jef Dean進(jìn)行了一場(chǎng)空前的試驗(yàn),聯(lián)手使用1。6萬(wàn)個(gè)CPU訓(xùn)練了一個(gè)當(dāng)時(shí)世界上最大的深度學(xué)習(xí)網(wǎng)絡(luò),用來(lái)指導(dǎo)計(jì)算機(jī)畫(huà)出貓臉圖片。 當(dāng)時(shí)他們使用了來(lái)自youtube的1000萬(wàn)個(gè)貓臉圖片,1。6萬(wàn)個(gè)CPU整整訓(xùn)練了3天,最終得到的模型,令人振奮的可以生成一個(gè)非常模糊的貓臉。
在今天看起來(lái),這個(gè)模型的訓(xùn)練效率和輸出結(jié)果都不值一提。 但對(duì)于當(dāng)時(shí)的AI研究領(lǐng)域,這是一次具有突破意義的嘗試,正式開(kāi)啟了深度學(xué)習(xí)模型支持的AI繪畫(huà)這個(gè)”全新”研究方向。
在這里我們稍微講一點(diǎn)技術(shù)細(xì)節(jié): 基于深度學(xué)習(xí)模型的AI繪畫(huà)究竟有多麻煩呢,為什么2012年已經(jīng)很現(xiàn)代水平的大規(guī)模計(jì)算機(jī)集群耗時(shí)多天的訓(xùn)練只能得出一點(diǎn)可憐的結(jié)果?
讀者們或許有個(gè)基本概念,深度學(xué)習(xí)模型的訓(xùn)練簡(jiǎn)單說(shuō)來(lái)就是利用外部大量標(biāo)注好的訓(xùn)練數(shù)據(jù)輸入,根據(jù)輸入和所對(duì)應(yīng)的預(yù)期輸出,反復(fù)調(diào)整模型內(nèi)部參數(shù)加以匹配的過(guò)程。
那么讓AI學(xué)會(huì)繪畫(huà)的過(guò)程,就是構(gòu)建已有畫(huà)作的訓(xùn)練數(shù)據(jù),輸入AI模型進(jìn)行參數(shù)迭代調(diào)整的過(guò)程。
一幅畫(huà)帶有多少信息呢?首先就是長(zhǎng)x寬個(gè)RGB像素點(diǎn)。 讓計(jì)算機(jī)學(xué)繪畫(huà),最簡(jiǎn)單的出發(fā)點(diǎn)是得到一個(gè)輸出有規(guī)律像素組合的AI模型。
但RGB像素組合一起的并非都是畫(huà)作,也可能只是噪點(diǎn)。 一副紋理豐富,筆觸自然的畫(huà)作有很多筆畫(huà)完成,涉及繪畫(huà)中每一筆的位置,形狀,顏色等多個(gè)方面的參數(shù),這里涉及到的參數(shù)組合是非常龐大的。 而深度模型訓(xùn)練的計(jì)算復(fù)雜度隨著參數(shù)輸入組合的增長(zhǎng)而急劇增長(zhǎng)…… 大家可以理解這個(gè)事情為啥不簡(jiǎn)單了。
在吳恩達(dá)和Jeff Dean開(kāi)創(chuàng)性的貓臉生成模型之后,AI科學(xué)家們開(kāi)始前赴后繼投入到這個(gè)新的挑戰(zhàn)性領(lǐng)域里。 在2014年,AI學(xué)術(shù)界提出了一個(gè)非常重要的深度學(xué)習(xí)模型,這就是大名鼎鼎的對(duì)抗生成網(wǎng)絡(luò)GAN(Generative Adverserial Network,GAN)。
正如同其名字”對(duì)抗生成”,這個(gè)深度學(xué)習(xí)模型的核心理念是讓兩個(gè)內(nèi)部程序 “生成器(generator)” 和“判別器(discriminator)”互相PK平衡之后得到結(jié)果。
GAN模型一問(wèn)世就風(fēng)靡AI學(xué)術(shù)界,在多個(gè)領(lǐng)域得到了廣泛的應(yīng)用。 它也隨即成為了很多AI繪畫(huà)模型的基礎(chǔ)框架,其中生成器用來(lái)生成圖片,而判別器用來(lái)判斷圖片質(zhì)量。 GAN的出現(xiàn)大大推動(dòng)了AI繪畫(huà)的發(fā)展。
但是,用基礎(chǔ)的GAN模型進(jìn)行AI繪畫(huà)也有比較明顯的缺陷,一方面是對(duì)輸出結(jié)果的控制力很弱,容易產(chǎn)生隨機(jī)圖像,而AI藝術(shù)家的輸出應(yīng)該是穩(wěn)定的。 另外一個(gè)問(wèn)題是生成圖像的分辨率比較低。
分辨率的問(wèn)題還好說(shuō),GAN在”創(chuàng)作”這個(gè)點(diǎn)上還存在一個(gè)死結(jié),這個(gè)結(jié)恰恰是其自身的核心特點(diǎn): 根據(jù)GAN基本架構(gòu),判別器要判斷產(chǎn)生的圖像是否和已經(jīng)提供給判別器的其他圖像是同一個(gè)類(lèi)別的,這就決定了在最好的情況下,輸出的圖像也就是對(duì)現(xiàn)有作品的模仿,而不是創(chuàng)新…………
在對(duì)抗生成網(wǎng)絡(luò)GAN之外,研究人員也開(kāi)始利用其他種類(lèi)的深度學(xué)習(xí)模型來(lái)嘗試教AI繪畫(huà)。
一個(gè)比較著名的例子是2015年 Google發(fā)布的一個(gè)圖像工具深夢(mèng)(Deep Dream)。 深夢(mèng)發(fā)布了一系列畫(huà)作,一時(shí)吸引了很多眼球。谷歌甚至為這個(gè)深夢(mèng)的作品策劃了一場(chǎng)畫(huà)展。
但如果較真一下,深夢(mèng)與其說(shuō)是AI繪畫(huà),更像是一個(gè)高級(jí)AI版濾鏡,其濾鏡風(fēng)格一看上面的作品便可明白。
和作品不尷不尬的Deep Dream相比,Google更靠譜的是2017年成千張手繪簡(jiǎn)筆畫(huà)圖片訓(xùn)練的一個(gè)模型,AI通過(guò)訓(xùn)練能夠繪制一些簡(jiǎn)筆畫(huà)。(Google,《A Neural Representation of Sketch Drawings》)
這個(gè)模型之所以受到廣泛關(guān)注有一個(gè)原因,Google把相關(guān)源代碼開(kāi)源了,因此第三方開(kāi)發(fā)者可以基于該模型開(kāi)發(fā)有趣的AI簡(jiǎn)筆畫(huà)應(yīng)用。一個(gè)在線應(yīng)用叫做 “Draw Together with a Neural Network” ,隨意畫(huà)幾筆,AI就可以自動(dòng)幫你補(bǔ)充完整個(gè)圖形。
值得注意的是,在AI繪畫(huà)模型的研究過(guò)程中,各互聯(lián)網(wǎng)大廠成了主力,除了上述Google所做的研究,比較有名的是2017年7月,F(xiàn)acebook聯(lián)合羅格斯大學(xué)和查爾斯頓學(xué)院藝術(shù)史系三方合作得到的新模型,號(hào)稱(chēng)創(chuàng)造性對(duì)抗網(wǎng)絡(luò)(CAN,Creative Adversarial Networks)
(Facebook,《CAN: Creative Adversarial Networks,Generating “Art” by Learning About Styles and Deviating from Style Norms》)
從下圖的作品集可以看出,這個(gè)創(chuàng)造性對(duì)抗網(wǎng)絡(luò)CAN在嘗試輸出一些像是藝術(shù)家作品的圖畫(huà),它們是獨(dú)一無(wú)二的,而不是現(xiàn)存藝術(shù)作品的仿品。
CAN模型生成作品里所體現(xiàn)的創(chuàng)造性讓當(dāng)時(shí)的開(kāi)發(fā)研究人員都感到震驚,因?yàn)檫@些作品看起來(lái)和藝術(shù)圈子流行的抽象畫(huà)非常類(lèi)似。 于是研究人員組織了一場(chǎng)圖靈測(cè)試,請(qǐng)觀眾們?nèi)ゲ逻@些作品是人類(lèi)藝術(shù)家的作品,還是人工智能的創(chuàng)作。
結(jié)果,53%的觀眾認(rèn)為CAN模型的AI藝術(shù)作品出自人類(lèi)之手,這在歷史上類(lèi)似的圖靈測(cè)試?yán)锸状瓮黄瓢霐?shù)。
但CAN這個(gè)AI作畫(huà),僅限于一些抽象表達(dá),而且就藝術(shù)性評(píng)分而言,還遠(yuǎn)遠(yuǎn)達(dá)不到人類(lèi)大師的水平。
更不用說(shuō)創(chuàng)作出一些寫(xiě)實(shí)或者具象的繪畫(huà)作品了,不存在的。
其實(shí)一直到2021年初,OpenAI發(fā)布了廣受關(guān)注的DALL-E系統(tǒng),其AI繪畫(huà)的水平也就一般,下面是DALL-E畫(huà)一只狐貍的結(jié)果,勉強(qiáng)可以辨別。
但值得注意的是,到了DALL-E這里,AI開(kāi)始擁有了一個(gè)重要的能力,那就是可以按照文字輸入提示來(lái)進(jìn)行創(chuàng)作了!
接下來(lái),我們繼續(xù)去探求本文一開(kāi)始提出的問(wèn)題。 不知各位讀者是否有同感,自今年以來(lái),AI繪畫(huà)的水平突然大漲,和之前的作品質(zhì)量相比有本質(zhì)的飛躍,恍然有種一日不見(jiàn)如隔三秋的感覺(jué)。
事出必有妖。 究竟發(fā)生了什么情況?我們慢慢道來(lái)。
三、AI繪畫(huà)何以突飛猛進(jìn)
在很多科幻電影或劇集里,往往會(huì)有這么一幕,主角和特別有科幻感的電腦AI說(shuō)了一句話,然后AI生成了一個(gè)3D影像,用VR/AR/全息投影的方式呈現(xiàn)在主角面前。
拋開(kāi)那些酷炫的視覺(jué)效果包裝,這里的核心能力是,人類(lèi)用語(yǔ)言輸入,然后電腦AI理解人類(lèi)的表達(dá),生成一個(gè)符合要求的圖形圖像,展示給人類(lèi)。
仔細(xì)一想,這個(gè)能力最基礎(chǔ)的形式,就是一個(gè)AI繪畫(huà)的概念嘛。(當(dāng)然,從平面繪畫(huà)到3D生成還稍有一點(diǎn)距離,但相比于AI憑空創(chuàng)作一幅具象有意義的繪畫(huà)作品的難度,從2D圖自動(dòng)生成對(duì)應(yīng)的3D模型就不是一個(gè)量級(jí)上的問(wèn)題)
所以,無(wú)論是用說(shuō)話控制,還是更玄乎的腦電波控制,科幻影視中的酷炫場(chǎng)景實(shí)際上描述了一種AI能力 ,那就是把”語(yǔ)言描述” 通過(guò)AI理解自動(dòng)變?yōu)榱藞D像。 目前語(yǔ)音自動(dòng)識(shí)別文本的技術(shù)已經(jīng)成熟至極,所以這本質(zhì)上就是一個(gè)從文本到圖像的AI繪畫(huà)過(guò)程。
其實(shí)挺牛逼的,僅靠文字描述,沒(méi)有任何參考圖片,AI就能理解并自動(dòng)把對(duì)應(yīng)內(nèi)容給畫(huà)出來(lái)了,而且畫(huà)得越來(lái)越好!這在昨天還感覺(jué)有點(diǎn)遠(yuǎn)的事情,現(xiàn)在已真真切切出現(xiàn)在所有人的面前。
這一切到底怎么發(fā)生的呢?
首先要提到一個(gè)新模型的誕生。 還是前面提到的OpenAI團(tuán)隊(duì),在2021年1月開(kāi)源了新的深度學(xué)習(xí)模型 CLIP(Contrastive Language-Image Pre-Training)。 一個(gè)當(dāng)今最先進(jìn)的圖像分類(lèi)人工智能。
CLIP訓(xùn)練AI同時(shí)做了兩個(gè)事情,一個(gè)是自然語(yǔ)言理解,一個(gè)是計(jì)算機(jī)視覺(jué)分析。 它被設(shè)計(jì)成一個(gè)有特定用途的能力強(qiáng)大的工具,那就是做通用的圖像分類(lèi),CLIP可以決定圖像和文字提示的對(duì)應(yīng)程度,比如把貓的圖像和”貓”這個(gè)詞完全匹配起來(lái)。
CLIP模型的訓(xùn)練過(guò)程,簡(jiǎn)單的說(shuō),就是使用已經(jīng)標(biāo)注好的”文字-圖像”訓(xùn)練數(shù)據(jù),一方面對(duì)文字進(jìn)行模型訓(xùn)練,一方面對(duì)圖像進(jìn)行另一個(gè)模型的訓(xùn)練,不斷調(diào)整兩個(gè)模型內(nèi)部參數(shù),使得模型分別輸出的文字特征值和圖像特征值能讓對(duì)應(yīng)的”文字-圖像”經(jīng)過(guò)簡(jiǎn)單驗(yàn)證確認(rèn)匹配。
關(guān)鍵的地方來(lái)了,其實(shí)呢,之前也有人嘗試過(guò)訓(xùn)練”文字-圖像” 匹配的模型,但CLIP最大的不同是,它搜刮了40億個(gè)”文本-圖像”訓(xùn)練數(shù)據(jù)! 通過(guò)這天量的數(shù)據(jù),再砸入讓人咂舌的昂貴訓(xùn)練時(shí)間,CLIP模型終于修成正果。
聰明的讀者會(huì)問(wèn),這么多的“文本-圖像”記是誰(shuí)做的呢?40億張啊,如果都需要人工來(lái)標(biāo)記圖像相關(guān)文字,那時(shí)間成本和人力成本都是天價(jià)。 而這正是CLIP最聰明的地方,它用的是廣泛散布在互聯(lián)網(wǎng)上的圖片!
互聯(lián)網(wǎng)上的圖片一般都帶有各種文本描述,比如標(biāo)題,注釋?zhuān)踔劣脩舸虻臉?biāo)簽,等等,這就天然的成為了可用的訓(xùn)練樣本。 用這個(gè)特別機(jī)靈的方式,CLIP的訓(xùn)練過(guò)程完全避免了最昂貴費(fèi)時(shí)的人工標(biāo)注,或者說(shuō),全世界的互聯(lián)網(wǎng)用戶已經(jīng)提前做了標(biāo)注工作了。
CLIP功能強(qiáng)大,但無(wú)論如何,它第一眼看上去,和藝術(shù)創(chuàng)作似乎沒(méi)啥關(guān)系。
但就在CLIP開(kāi)源發(fā)布幾天后,一些機(jī)器學(xué)習(xí)工程師玩家就意識(shí)到,這個(gè)模型可以用來(lái)做更多的事情。 比如Ryan Murdock,想出了如何把其他AI連接到CLIP上,來(lái)打造一個(gè)AI圖像生成器。 Ryan Murdock在接受采訪時(shí)說(shuō):“在我把玩它幾天后,我意識(shí)到我可以生成圖像?!?/p>
最終他選擇了BigGAN,一個(gè)GAN模型的變種,并將代碼發(fā)布為Colab筆記The Big Sleep。
(注: Colab Notebook是Google提供的非常方便的Python Notebook交互式編程筆記本在線服務(wù),背后是Google云計(jì)算的支持。 略懂技術(shù)的用戶可以在一個(gè)類(lèi)似筆記本的Web界面上編輯運(yùn)行Python腳本并得到輸出。 重要的是,這個(gè)編程筆記是可以分享的 )
Big Sleep創(chuàng)作的圖畫(huà)其實(shí)略詭異和抽象,但這是一個(gè)很好的開(kāi)始。
隨后,西班牙玩家@RiversHaveWings在此基礎(chǔ)上發(fā)布了CLIP+VQGAN的版本和教程,這個(gè)版本通過(guò)Twitter被廣為轉(zhuǎn)發(fā)傳播,引起了AI研究界和愛(ài)好者們的高度關(guān)注。 而這個(gè)ID背后,正是現(xiàn)在所被熟知的計(jì)算機(jī)數(shù)據(jù)科學(xué)家 Katherine Crowson。
在之前,類(lèi)似VQ-GAN這樣的生成工具在對(duì)大量圖像進(jìn)行訓(xùn)練后,可以合成類(lèi)似的新圖像,然而,如讀者還有印象,前面說(shuō)過(guò),GANs類(lèi)型的模型本身并不能通過(guò)文字提示生成新圖像,也不擅長(zhǎng)創(chuàng)作出全新的圖像內(nèi)容。
而把CLIP嫁接到GAN上去生成圖像,這其中的思路倒也簡(jiǎn)單明了:
既然利用CLIP可以計(jì)算出任意一串文字和哪些圖像特征值相匹配,那只要把這個(gè)匹配驗(yàn)證過(guò)程鏈接到負(fù)責(zé)生成圖像的AI模型(比如這里是VQ-GAN),負(fù)責(zé)生成圖像的模型反過(guò)來(lái)推導(dǎo)一個(gè)產(chǎn)生合適圖像特征值,能通過(guò)匹配驗(yàn)證的圖像,不就得到一幅符合文字描述的作品了嗎?
有人認(rèn)為 CLIP+VQGAN是自2015年Deep Dream以來(lái)人工智能藝術(shù)領(lǐng)域最大的創(chuàng)新。 而美妙的是,CLIP+VQGAN對(duì)任何想使用它們的人來(lái)說(shuō)都是現(xiàn)成的。按照Katherine Crowson的線上教程和Colab Notebook,一個(gè)略懂技術(shù)的用戶可以在幾分鐘內(nèi)運(yùn)行該系統(tǒng)。
有意思的是,上一章也提到,在同一個(gè)時(shí)間(2021年初),開(kāi)源發(fā)布CLIP的OpenAI團(tuán)隊(duì)也發(fā)布了自己的圖像生成引擎DALL-E。 DALL-E內(nèi)部也正是用了CLIP,但DALL-E并不開(kāi)源!
所以論社區(qū)影響力和貢獻(xiàn),DALL-E完全不能和CLIP+VQGAN的開(kāi)源實(shí)現(xiàn)發(fā)布相比,當(dāng)然,開(kāi)源CLIP已經(jīng)是OpenAI對(duì)社區(qū)做出的巨大貢獻(xiàn)了。
說(shuō)到開(kāi)源貢獻(xiàn),這里還不得不提到LAION。
LAION 是一個(gè)跨全球的非營(yíng)利機(jī)器學(xué)習(xí)研究機(jī)構(gòu),今年3月開(kāi)放了當(dāng)前最大規(guī)模的開(kāi)源跨模態(tài)數(shù)據(jù)庫(kù)LAION-5B,包含接近60億(5。85 Billion)個(gè)圖片-文本對(duì),可以被用來(lái)訓(xùn)練所有從文字到圖像的的生成模型,也可以用于訓(xùn)練 CLIP這種用于給文本和圖像的匹配程度打分的模型,而這兩者都是現(xiàn)在 AI 圖像生成模型的核心。
除了提供以上的海量訓(xùn)練素材庫(kù),LAION 還訓(xùn)練 AI 根據(jù)藝術(shù)感和視覺(jué)美感,給LAION-5B 里圖片打分,并把得高分的圖片歸進(jìn)了一個(gè)叫 LAION-Aesthetics 的子集。
事實(shí)上,最新的AI繪畫(huà)模型包括隨后提到的AI繪畫(huà)模型王者 Stable Diffusion都是利用LAION-Aesthetics這個(gè)高質(zhì)量數(shù)據(jù)集訓(xùn)練出來(lái)的。
CLIP+VQGAN 引領(lǐng)了全新一代 AI圖像生成技術(shù)的風(fēng)潮,現(xiàn)在所有的開(kāi)源 TTI(Text to Image,文本文本生成圖像)模型的簡(jiǎn)介里都會(huì)對(duì) Katherine Crowson 致謝,她是當(dāng)之無(wú)愧的全新一代AI繪畫(huà)模型的奠基者。
技術(shù)玩家們圍繞著CLIP+VQGAN開(kāi)始形成社區(qū),代碼不斷有人做優(yōu)化改進(jìn),還有Twitter賬號(hào)專(zhuān)門(mén)收集和發(fā)布AI畫(huà)作。 而最早的踐行者Ryan Murdoch 還因此被招募進(jìn)了Adobe擔(dān)任機(jī)器學(xué)習(xí)算法工程師。
不過(guò)這一波AI作畫(huà)浪潮的玩家主要還是AI技術(shù)愛(ài)好者。
盡管和本地部署AI開(kāi)發(fā)環(huán)境相比,在Golab Notebooks上跑CLIP+VQGAN的門(mén)檻相對(duì)而言已經(jīng)比較低,但畢竟在Colab申請(qǐng)GPU運(yùn)行代碼并調(diào)用AI輸出圖片,時(shí)不時(shí)還要處理一下代碼報(bào)錯(cuò),這不是大眾化人群特別是沒(méi)有技術(shù)背景的藝術(shù)創(chuàng)作者們可以做的。 而這也正是現(xiàn)在 MidJourney 這類(lèi)零門(mén)檻的傻瓜式AI付費(fèi)創(chuàng)作服務(wù)大放光彩的原因。
但激動(dòng)人心的進(jìn)展到這里還遠(yuǎn)沒(méi)結(jié)束。 細(xì)心的讀者注意到,CLIP+VQGAN這個(gè)強(qiáng)力組合是去年初發(fā)布并在小圈子傳播的,但AI繪畫(huà)的大眾化關(guān)注,如開(kāi)篇所說(shuō),則是在今年初開(kāi)始,由Disco Diffusion這個(gè)線上服務(wù)所引爆。 這里還隔著大半年的時(shí)間。 是什么耽擱了呢?
一個(gè)原因是CLIP+VQGAN 模型所用到的圖像生成部分,即GAN類(lèi)模型的生成結(jié)果始終不盡如人意。
AI人員注意到了另外一種圖像生成方式。
如果復(fù)習(xí)一下GAN模型的工作原理,其圖像輸出是內(nèi)部生成器和判斷器的PK妥協(xié)結(jié)果。
但還有另外一種思路,那就是Diffusion模型(擴(kuò)散化模型)。
Diffusion這個(gè)詞也很高大上,但基本原理說(shuō)出來(lái)大家都能理解,其實(shí)就是”去噪點(diǎn)”。 對(duì),就是我們熟悉的手機(jī)拍照(特別是夜景拍照)的自動(dòng)降噪功能。 如果把這個(gè)去噪點(diǎn)的計(jì)算過(guò)程反復(fù)進(jìn)行,在極端的情況下,是不是可能把一個(gè)完全是噪聲的圖片還原為一個(gè)清晰的圖片呢?
靠人當(dāng)然不行,簡(jiǎn)單的去噪程序也不可能,但是基于AI能力去一邊”猜”一邊去噪,倒是可行的。
這就是Diffusion擴(kuò)散化模型的基本思路。
Diffusion擴(kuò)散化模型目前在計(jì)算機(jī)視覺(jué)領(lǐng)域的影響力越來(lái)越大,它能夠高效合成視覺(jué)數(shù)據(jù),圖片生成完全擊敗了GAN模型,而在其他領(lǐng)域如視頻生成和音頻合成也展現(xiàn)出了不俗的潛力。
今年初被大眾首先熟知的AI繪畫(huà)產(chǎn)品 Disco Diffusion,正是第一個(gè)基于CLIP + Diffusion 模型的實(shí)用化AI繪畫(huà)產(chǎn)品。
但Disco Diffusion的缺點(diǎn)還是有些明顯,如身為專(zhuān)業(yè)藝術(shù)家的 Stijn Windig 反復(fù)嘗試了Disco Diffusion,認(rèn)為 Disco Diffusion 并沒(méi)有取代人工創(chuàng)作的能力,核心原因有2點(diǎn):
- Disco Diffusion 無(wú)法刻畫(huà)具體細(xì)節(jié),渲染出的圖像第一眼很驚艷,但仔細(xì)觀察就會(huì)發(fā)現(xiàn)大部分都是模糊的概括,達(dá)不到商業(yè)細(xì)節(jié)水準(zhǔn)。
- Disco Diffusion的初步渲染時(shí)間是以小時(shí)計(jì)算的,而要在渲染圖像的基礎(chǔ)上刻畫(huà)細(xì)節(jié),則相當(dāng)于要把整個(gè)圖重新畫(huà)一遍,這樣一個(gè)流程下來(lái)花耗費(fèi)的時(shí)間精力,比直接手繪還要多。
不過(guò) Stijn Windig 還是對(duì)AI繪畫(huà)的發(fā)展持樂(lè)觀態(tài)度,他覺(jué)得盡管直接利用 Disco Diffusion 進(jìn)行商業(yè)化創(chuàng)作還不可行,但作為一種靈感參考還是非常好的:“……我發(fā)現(xiàn)它更適合作為一個(gè)創(chuàng)意生成器使用。給一個(gè)文字提示,它返回一些圖片能激發(fā)我的想象力,并可以作為草圖用來(lái)在上面繪畫(huà)?!?/p>
其實(shí)從技術(shù)上來(lái)說(shuō),Stijn提出的兩大痛點(diǎn),1) AI繪畫(huà)細(xì)節(jié)還不夠深入,2) 渲染時(shí)間過(guò)長(zhǎng),實(shí)際上都是因?yàn)镈iffusion擴(kuò)散模型的一個(gè)內(nèi)在缺點(diǎn),這就是反向去噪生成圖片的迭代過(guò)程很慢,模型在像素空間中進(jìn)行計(jì)算,這會(huì)導(dǎo)致對(duì)計(jì)算時(shí)間和內(nèi)存資源的巨大需求,在生成高分辨率圖像時(shí)變得異常昂貴。
(像素空間,有點(diǎn)專(zhuān)業(yè)化的說(shuō)法,實(shí)際上就是說(shuō)模型直接在原始像素信息層面上做計(jì)算)
因此對(duì)于大眾應(yīng)用級(jí)的平臺(tái)產(chǎn)品,這個(gè)模型無(wú)法在用戶可以接受的生成時(shí)間里去計(jì)算挖掘更多的圖像細(xì)節(jié),即便那種草稿級(jí)別的作圖,也需要耗費(fèi)Disco Diffusion以小時(shí)計(jì)算的時(shí)間。
但無(wú)論如何,Disco Diffusion給出的繪畫(huà)質(zhì)量,相對(duì)于之前的所有AI繪畫(huà)模型,都是碾壓式的超越,而且已經(jīng)是大部分普通人無(wú)法企及的作畫(huà)水平了,Stijn的挑刺只是站在人類(lèi)專(zhuān)業(yè)創(chuàng)作的高點(diǎn)提出的要求。
但是,Stijn同學(xué)恐怕萬(wàn)萬(wàn)沒(méi)想到,他所指出的AI繪畫(huà)兩大痛點(diǎn),還沒(méi)過(guò)幾個(gè)月,就被AI研究人員近乎完美的解決了!
講到這里,當(dāng)當(dāng)當(dāng)當(dāng),當(dāng)今世界最強(qiáng)大的AI繪畫(huà)模型 Stable Diffusion終于閃亮登場(chǎng)了!
Stable Diffusion今年7月開(kāi)始測(cè)試,它非常好的解決了上述痛點(diǎn)。
實(shí)際上Stable Diffusion和之前的Diffusion擴(kuò)散化模型相比,重點(diǎn)是做了一件事,那就是把模型的計(jì)算空間,從像素空間經(jīng)過(guò)數(shù)學(xué)變換,在盡可能保留細(xì)節(jié)信息的情況下降維到一個(gè)稱(chēng)之為潛空間(Latent Space)的低維空間里,然后再進(jìn)行繁重的模型訓(xùn)練和圖像生成計(jì)算。
這個(gè)”簡(jiǎn)單”的思路轉(zhuǎn)化,帶來(lái)了多大的影響呢?
基于潛空間的Diffusion模型與像素空間Diffusion模型相比,大大降低了內(nèi)存和計(jì)算要求。比如Stable Diffusion所使用的潛空間編碼縮減因子為8,說(shuō)人話就是圖像長(zhǎng)和寬都縮減8倍,一個(gè)512×512的圖像在潛空間中直接變?yōu)?4×64,節(jié)省了8×8=64倍的內(nèi)存!
這就是Stable Diffusion之所以又快又好的原因,它能快速(以秒計(jì)算)生成一張飽含細(xì)節(jié)的512×512圖像,只需要一張消費(fèi)級(jí)的8GB 2060顯卡即可!
讀者可以簡(jiǎn)單算一下,如沒(méi)有這個(gè)空間壓縮轉(zhuǎn)換,要實(shí)現(xiàn)Stable Diffusion 這樣的秒級(jí)圖像生成體驗(yàn),則需要一張 8Gx64=512G顯存的超級(jí)顯卡。 按照顯卡硬件的發(fā)展規(guī)律來(lái)看,消費(fèi)級(jí)顯卡達(dá)到這個(gè)顯存恐怕是8-10年后的事情。
而AI研究人員一個(gè)算法上的重要迭代,把10年后我們才可能享受到的AI作畫(huà)成果直接帶到了當(dāng)下所有普通用戶的電腦前!
所以目前大家對(duì)AI繪畫(huà)的進(jìn)展感到吃驚是完全正常的,因?yàn)閺娜ツ甑浇衲辏珹I繪畫(huà)的技術(shù)確實(shí)出現(xiàn)了連續(xù)的突破性的進(jìn)展,從CLIP模型基于無(wú)需標(biāo)注的海量互聯(lián)網(wǎng)圖片訓(xùn)練大成,到CLIP開(kāi)源引發(fā)的AI繪畫(huà)模型嫁接熱潮,然后找到了Diffusion擴(kuò)散化模型作為更好的圖像生成模塊,最后使用潛空間降維的改進(jìn)方法解決了Diffusion模型時(shí)間和內(nèi)存資源消耗巨大的問(wèn)題…… 這一切的一切,讓人目不暇接,可以說(shuō)AI繪畫(huà)在這一年間,變化是以天計(jì)算的!
而在這個(gè)過(guò)程中,最幸福的莫過(guò)于所有AI技術(shù)愛(ài)好者和藝術(shù)創(chuàng)作者們。 大家親眼目睹著停滯了多年的AI繪畫(huà)水平以火箭般的速度沖到了頂峰。 毫無(wú)疑問(wèn),這是AI發(fā)展歷史上的一個(gè)高光時(shí)刻。
而對(duì)所有普通用戶來(lái)說(shuō),最開(kāi)心的,當(dāng)然是享受到了利用Stable Diffusion或者M(jìn)idJourney這樣的當(dāng)今頂級(jí)作畫(huà)AI去生成專(zhuān)業(yè)級(jí)別畫(huà)作的巨大樂(lè)趣。
有趣的是,Stable Diffusion的誕生還和前面提到的兩位先驅(qū)Katherine Crowson 和Ryan Murdoch 有關(guān)。 他們成為了一個(gè)去中心化組織的AI開(kāi)源研發(fā)團(tuán)隊(duì)EleutherAI的核心成員。 雖然自稱(chēng)草根團(tuán)隊(duì),但EleutherAI在超大規(guī)模預(yù)言模型和AI圖像生成領(lǐng)域目前都已經(jīng)是開(kāi)源團(tuán)隊(duì)的佼佼者。
正是EleutherAI作為技術(shù)核心團(tuán)隊(duì)支持了Stability.AI 這一家創(chuàng)始于英國(guó)倫敦的AI方案提供商。 這些有理想的人們聚在一起,基于以上這些最新的AI繪畫(huà)技術(shù)突破,推出了當(dāng)今最強(qiáng)大的AI繪畫(huà)模型 Stable Diffusion。 重要的是,Stable Diffusion按照承諾,已經(jīng)在8月完全開(kāi)源! 這個(gè)重要的開(kāi)源讓全世界的AI學(xué)者和AI技術(shù)愛(ài)好者感動(dòng)得痛哭流涕。 Stable Diffusion一經(jīng)開(kāi)源,就始終霸占著GitHub熱榜第一。
Stability.AI徹底履行了它官網(wǎng)首頁(yè)的 Slogan “AI by the people,for the people”,必須給予一個(gè)大大的贊。
下圖是作者線上運(yùn)行的Stable Diffusion,感謝開(kāi)源!話說(shuō)這個(gè)AI生成的自帶光環(huán)的日漫小哥是相當(dāng)?shù)膸洑猓海?/p>
四、頂級(jí)AI繪畫(huà)模型的PK:Stable Diffusion V.S MidJourney
作者在之前文章里已經(jīng)介紹了MidJourney這個(gè)在線AI作畫(huà)神器,它最大的優(yōu)點(diǎn)就是零門(mén)檻的交互和非常好的輸出結(jié)果。創(chuàng)作者無(wú)需任何技術(shù)背景就能利用基于Discord的MidJourney bot進(jìn)行對(duì)話式繪畫(huà)創(chuàng)作(恩,當(dāng)然,全英文)
從輸出風(fēng)格上看,MidJourney非常明顯針對(duì)人像做了一些優(yōu)化,用多了后,MidJourney的風(fēng)格傾向也比較明顯(作者在MidJourney上花了數(shù)百刀的計(jì)算資源嘗試了各種主題創(chuàng)作后的第一手感受),說(shuō)得好聽(tīng)是比較細(xì)膩討巧,或者說(shuō),比較油膩一點(diǎn)點(diǎn)。
而Stable Diffusion的作品,就明顯的更淡雅一些,更藝術(shù)化一些。
哪種風(fēng)格更好?其實(shí)蘿卜青菜各有所愛(ài)。
因?yàn)樽鲞^(guò)針對(duì)性的優(yōu)化,如要出人像圖或者糖水風(fēng)格美圖用MidJourney更方便。 但比較了多張作品后,作者認(rèn)為Stable Diffusion還是明顯技高一籌,無(wú)論從藝術(shù)表達(dá)上還是風(fēng)格變化的多樣性上。
不過(guò),MidJourney這幾個(gè)月的迭代是有目共睹的快(畢竟是付費(fèi)服務(wù),很賺錢(qián)很有動(dòng)力?。?,加上Stable Diffusion的完全開(kāi)源,預(yù)計(jì)相關(guān)技術(shù)優(yōu)勢(shì)會(huì)很快被吸收進(jìn)MidJourney。 而另一方面,Stable Diffusion模型的訓(xùn)練還在持續(xù)進(jìn)行中,我們可以非常期待,未來(lái)版本的Stable Diffusion模型也將百尺竿頭更進(jìn)一步。
對(duì)所有的創(chuàng)作者用戶而言,這都是天大的好事。
五、AI繪畫(huà)的突破對(duì)人類(lèi)意味著什么
2022年的AI領(lǐng)域,基于文本生成圖像的AI繪畫(huà)模型是風(fēng)頭無(wú)兩的主角。 從2月份的Disco Diffusion開(kāi)始,4月 DALL-E 2和MidJourney邀請(qǐng)內(nèi)測(cè),5月和6月Google發(fā)布兩大模型Imagen 和Parti(不開(kāi)放內(nèi)測(cè)只有論文,感覺(jué)略水),然后7月底,Stable Diffusion橫空出世……
真的讓人眼花繚亂。 也勿怪作者在上篇文章里感慨,怎么稍不注意AI繪畫(huà)的水平就突飛猛進(jìn)到如此地步,事實(shí)上,確實(shí)就是在這一年半載里,AI繪畫(huà)發(fā)生了革命性的,甚至可以說(shuō)歷史上會(huì)留名的突破性進(jìn)展。
而接下去的時(shí)間里,AI繪畫(huà),或者更廣泛的,AI生成內(nèi)容領(lǐng)域(圖像,聲音,視頻,3D內(nèi)容等……)還會(huì)發(fā)生什么,讓人充滿了遐想和期待。
但不用等待未來(lái),體驗(yàn)了當(dāng)下以Stable Diffusion 為代表的最先進(jìn)AI繪畫(huà)模型所能觸達(dá)的藝術(shù)高度,我們已經(jīng)基本可以確認(rèn),”想象力”和”創(chuàng)造力”這兩個(gè)曾經(jīng)充滿著神秘主義的詞匯,同時(shí)也是人類(lèi)最后的驕傲,其實(shí)也是可以被技術(shù)解構(gòu)的。
對(duì)人類(lèi)靈魂神圣至上說(shuō)法的擁護(hù)者而言,當(dāng)今AI繪畫(huà)模型所展現(xiàn)的創(chuàng)造力,是一種對(duì)信仰的無(wú)情打擊。 所謂靈感,創(chuàng)造力,想象力,這些充滿著神性的詞,即將(或者已經(jīng))被超級(jí)算力+大數(shù)據(jù)+數(shù)學(xué)模型的強(qiáng)力組合無(wú)情打臉了。
事實(shí)上,類(lèi)似Stable Diffusion這種AI生成模型的一個(gè)核心思路,或者說(shuō)很多深度學(xué)習(xí)AI模型的核心思路,就是把人類(lèi)創(chuàng)作的內(nèi)容,表示為某個(gè)高維或者低維數(shù)學(xué)空間里的一個(gè)向量(更簡(jiǎn)單的理解,一串?dāng)?shù)字)。 如果這個(gè)”內(nèi)容-向量”的轉(zhuǎn)化設(shè)計(jì)足夠合理,那么人類(lèi)所有的創(chuàng)作內(nèi)容都可以表示為某個(gè)數(shù)學(xué)空間里的部分向量而已。 而存在于這個(gè)無(wú)限的數(shù)學(xué)空間里的其他向量,正是那些理論上人類(lèi)可能創(chuàng)造,但尚未被創(chuàng)造出來(lái)的內(nèi)容。 通過(guò)逆向的”向量-內(nèi)容”的轉(zhuǎn)換,這些還沒(méi)被創(chuàng)造的內(nèi)容就被AI挖掘出來(lái)了。
這正是目前MidJourney,Stable Diffusion這些最新AI繪畫(huà)模型所做的事情。 AI可以說(shuō)是在創(chuàng)作新的內(nèi)容,也可以說(shuō)是新繪畫(huà)作品的搬運(yùn)工。AI產(chǎn)生的新繪畫(huà)作品在數(shù)學(xué)意義上一直客觀存在,只是被AI通過(guò)很聰明的方式,從數(shù)學(xué)空間里還原出來(lái),而已。
“文章本天成,妙手偶得之”。
這句話放在這里非常合適。這“天”,是那個(gè)無(wú)限的數(shù)學(xué)空間;而這“手”,從人類(lèi),換成了AI。
數(shù)學(xué)真是世界至高法則:)
目前最新AI繪畫(huà)的”創(chuàng)造力”開(kāi)始追趕甚至幾已比肩人類(lèi),這或許進(jìn)一步打擊了人類(lèi)的尊嚴(yán),從圍棋阿法狗開(kāi)始,人類(lèi)在”智慧”這個(gè)點(diǎn)的尊嚴(yán)領(lǐng)地已經(jīng)越來(lái)越小,而AI繪畫(huà)的突破性進(jìn)展則進(jìn)一步把人類(lèi)”想像力”和”創(chuàng)造力”的尊嚴(yán)都打碎了 — 或許還沒(méi)完全破碎,但已經(jīng)充滿裂痕搖搖欲墜。
作者一直對(duì)人類(lèi)的科技發(fā)展保持某種中性看法: 盡管我們寄望于科技讓人類(lèi)的生活變得更美好,但事實(shí)上正如核彈的發(fā)明,有些科學(xué)技術(shù)的出現(xiàn)是中性的,也可能是致命的。 完全取代人類(lèi)的超級(jí)AI從實(shí)踐來(lái)看似乎是一件越來(lái)越可能的事情。 人類(lèi)需要思考的是,在不太遠(yuǎn)的將來(lái),我們?cè)谒蓄I(lǐng)域面對(duì)AI都落荒而逃的時(shí)候,如何保持對(duì)世界的主導(dǎo)權(quán)。
有個(gè)朋友說(shuō)的很對(duì),如果AI最終學(xué)會(huì)了寫(xiě)代碼 — 似乎沒(méi)有什么必然的壁壘在阻止這件事的發(fā)生 –那么電影終結(jié)者的故事或許就要發(fā)生了。 如果這樣太悲觀,那么人類(lèi)至少要考慮,如何與一個(gè)超越自己所有智慧和創(chuàng)造力的AI世界相處。
當(dāng)然咯,樂(lè)觀的角度而言,未來(lái)的世界只會(huì)更美好:人類(lèi)通過(guò)AR/VR接入統(tǒng)一的或者個(gè)人的元宇宙,人類(lèi)主人只要?jiǎng)觿?dòng)嘴皮子,無(wú)所不能的AI助理就能根據(jù)要求自動(dòng)生成內(nèi)容,甚至直接生成可供人類(lèi)體驗(yàn)的故事/游戲/虛擬生活。
這是一個(gè)更美好的盜夢(mèng)空間,還是一個(gè)更美好的黑客帝國(guó)?(笑)
無(wú)論如何,今天我們見(jiàn)證的AI繪畫(huà)能力的突破和超越,正是這條不歸路的第一步:)
說(shuō)個(gè)題外話作為結(jié)尾。 盡管還沒(méi)出現(xiàn),但應(yīng)該就在這兩年,我們可以直接讓AI生成一本指定風(fēng)格的完整長(zhǎng)篇小說(shuō),特別是那些類(lèi)型化的作品,比如斗破蒼穹、凡人修仙傳這樣的玄幻小說(shuō),還可以指定長(zhǎng)度,指定女主角個(gè)數(shù),指定情節(jié)傾向性,指定悲情程度和熱血程度,甚至xx程度,AI一鍵生成
這完全不是天方夜譚,考慮到AI繪畫(huà)這一年坐火箭般的發(fā)展速度,作者甚至覺(jué)得這一天就近在眼前。
目前還沒(méi)有AI模型可以生成足夠感染力和邏輯性的長(zhǎng)篇文學(xué)內(nèi)容,但從AI繪畫(huà)模型氣勢(shì)洶洶的發(fā)展態(tài)勢(shì)來(lái)看,不久的將來(lái)AI生成高質(zhì)量的類(lèi)型文學(xué)作品幾乎已是板上釘釘?shù)氖虑椋碚撋蠜](méi)有任何的疑問(wèn)。
這樣說(shuō)或許打擊了那些辛苦碼字的網(wǎng)文作者,但作為一個(gè)技術(shù)愛(ài)好者和玄幻小說(shuō)愛(ài)好者,作者對(duì)這一天的到來(lái)還是有些期待的…… 從此再也不需催更,也不需要擔(dān)心連載作者的寫(xiě)作狀態(tài)了; 更美好的是,看到一半如覺(jué)得不爽,還可以隨時(shí)讓AI調(diào)整后續(xù)情節(jié)方向重新生成再繼續(xù)看……
若你還不確定這樣的一天即將到來(lái),我們可以求同存異,一起等待。
作者:城主;來(lái)源公眾號(hào):Web3天空之城(ID:Web3SkyCity)
原文鏈接:https://mp.weixin.qq.com/s/LsJwRMSqPXSjSyhoNgzi6w
本文由@Web3天空之城 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來(lái)自Unsplash,基于CC0協(xié)議
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。
- 目前還沒(méi)評(píng)論,等你發(fā)揮!