OpenAI視頻模型Sora被惡意泄露,又拉馬斯克背鍋?

1 評(píng)論 172 瀏覽 0 收藏 9 分鐘

在人工智能技術(shù)迅猛發(fā)展的今天,OpenAI的文本轉(zhuǎn)視頻AI模型Sora遭遇了一次意外的API泄露事件,引發(fā)了業(yè)界的廣泛關(guān)注。

11月27日凌晨,OpenAI的文生視頻模型Sora,被人惡意泄露了API,使其短暫地開(kāi)放了1小時(shí)左右。

據(jù)了解,此次泄露事件是由于自今年年初OpenAI首次預(yù)告了其文本轉(zhuǎn)視頻AI模型 Sora后,一直沒(méi)有提供任何具體的更新。導(dǎo)致一群參與OpenAI新型文本轉(zhuǎn)視頻AI模型Sora的測(cè)試藝術(shù)家,因?qū)镜牟粷M(mǎn)而泄露了該模型的早期訪(fǎng)問(wèn)權(quán)限。

在OpenAI介入并關(guān)閉相應(yīng)權(quán)限之前,已經(jīng)有不少人制作了AI視頻并流出。此次對(duì)于OpenAI會(huì)造成什么樣的影響呢?

一、藝術(shù)家們的憤怒

據(jù)悉,泄露者通過(guò)AI開(kāi)發(fā)平臺(tái)Hugging Face發(fā)布了一個(gè)與Sora API相關(guān)的項(xiàng)目,利用早期訪(fǎng)問(wèn)的認(rèn)證token,創(chuàng)建了一個(gè)前端界面,允許用戶(hù)生成視頻。通過(guò)這個(gè)前端,任何用戶(hù)都可以輸入簡(jiǎn)短的文字描述,生成最長(zhǎng)10秒、分辨率高達(dá)1080p的視頻。

隨后,許多用戶(hù)在社交媒體上分享了生成的視頻示例,這些視頻大多帶有OpenAI的視覺(jué)水印。然而,短暫地開(kāi)放了1小時(shí)左右,前端界面就停止了工作,外界猜測(cè)OpenAI和Hugging Face可能已經(jīng)撤銷(xiāo)了訪(fǎng)問(wèn)權(quán)限。

而且,這些藝術(shù)家在Hugging Face這一公共AI模型平臺(tái)上發(fā)布了他們的抗議信,聲稱(chēng)自己在測(cè)試過(guò)程中被公司利用,成為“無(wú)償?shù)难邪l(fā)和公關(guān)工具”。

在這封公開(kāi)信中,藝術(shù)家們表示:“親愛(ài)的企業(yè)AI領(lǐng)主們,我們獲得Sora的測(cè)試權(quán)限時(shí),被承諾是早期測(cè)試者和創(chuàng)意合作伙伴。然而,我們認(rèn)為自己只是被引誘進(jìn)入一種‘藝術(shù)洗白’的過(guò)程,為Sora做宣傳?!?他們強(qiáng)調(diào),藝術(shù)家不是公司的 “免費(fèi)bug測(cè)試員、宣傳工具、訓(xùn)練數(shù)據(jù)或驗(yàn)證token”。

有意思的是,在公開(kāi)信相關(guān)網(wǎng)站上,它獲得了122名聯(lián)名支持者,其中甚至出現(xiàn)了馬斯克的名字。但考慮到簽名系統(tǒng)不需要嚴(yán)格的身份認(rèn)證,暫時(shí)不能確定其是否為馬斯克本人。

在事件發(fā)生后,當(dāng)有媒體聯(lián)系OpenAI時(shí),OpenAI并未證實(shí)Sora泄露的真實(shí)性,但強(qiáng)調(diào)參與 “研究預(yù)覽” 的藝術(shù)家是自愿的,并不需要提供反饋或使用該工具。

科技旋渦認(rèn)為,年初OpenAI首次向世界展示了Sora,其生成視頻的時(shí)長(zhǎng)、質(zhì)量讓人耳目一新,但幾乎一年時(shí)間過(guò)去了,OpenAI對(duì)Sora還沒(méi)有有效更新,不過(guò)這還不是最可怕的,如果當(dāng)它的正式版本發(fā)布后,已經(jīng)屬于落后的技術(shù),那才是OpenAI的悲哀。

二、OpenAI的安全問(wèn)題

Sora相關(guān)項(xiàng)目的泄露很容易讓人們聯(lián)想到安全的問(wèn)題,如果這個(gè)事件繼續(xù)發(fā)酵,很容易讓大家對(duì)利用大量數(shù)據(jù)進(jìn)行訓(xùn)練的AI公司失去信任。

而且,這樣的安全隱患隨著一位已辭職的OpenAI團(tuán)隊(duì)負(fù)責(zé)人的發(fā)言變得越來(lái)越接近,他表示,科技巨頭微軟斥巨資支持的OpenAI正在解散其聚集于AI安全研究的“AGI Readiness”團(tuán)隊(duì),該團(tuán)隊(duì)曾經(jīng)負(fù)責(zé)向這家AI初創(chuàng)公司提供如何處理與應(yīng)對(duì)越來(lái)越強(qiáng)大的AI技術(shù)方面的解決方案與建議,以及提供當(dāng)今世界是否準(zhǔn)備好管理這些技術(shù)方面的建議?!癆GI Readiness”團(tuán)隊(duì)曾經(jīng)的團(tuán)隊(duì)主管表示,希望在外部繼續(xù)AGI領(lǐng)域的相關(guān)研究。近期越來(lái)越多跡象表明,OpenAI似乎全身心投入AI創(chuàng)收,無(wú)暇顧及AI安全。

而在本月初,OpenAI再痛失一員大將,OpenAI安全研究副總裁Lilian Weng發(fā)出長(zhǎng)信,官宣離開(kāi)OpenAI的安全團(tuán)隊(duì)。

今年9月,OpenAI宣布其安全與安保委員會(huì)將成為獨(dú)立的董事會(huì)監(jiān)督委員會(huì),該委員會(huì)于今年5月成立,負(fù)責(zé)處理有關(guān)安全流程的爭(zhēng)議。該委員會(huì)最近結(jié)束了為期90天的審查,對(duì)OpenAI的流程和保障措施進(jìn)行了評(píng)估,然后向董事會(huì)提出了建議。

高管離職和董事會(huì)變動(dòng)的消息也是繼今年夏天圍繞OpenAI的安全問(wèn)題和爭(zhēng)議日益增多之后傳出的,此時(shí)OpenAI與谷歌、微軟、Meta和其他公司正處于生成式人工智能軍備競(jìng)賽的風(fēng)口浪尖——據(jù)預(yù)測(cè),這個(gè)市場(chǎng)將在十年內(nèi)達(dá)到1萬(wàn)億美元的營(yíng)收規(guī)?!?yàn)楦餍懈鳂I(yè)的公司似乎都急于增加人工智能聊天機(jī)器人和代理,以避免被競(jìng)爭(zhēng)對(duì)手甩在身后。

據(jù)The Information援引一位了解相關(guān)會(huì)議情況的人士透露,今年夏天,在一些并未公開(kāi)的會(huì)議上,奧特曼的團(tuán)隊(duì)向美國(guó)國(guó)家安全官員展示了“草莓”模型。

報(bào)道指出,通過(guò)向政府官員展示一項(xiàng)尚未發(fā)布的技術(shù),OpenAI可能為人工智能開(kāi)發(fā)者樹(shù)立了新標(biāo)準(zhǔn),尤其是在先進(jìn)人工智能日益成為潛在安全隱患的今天。此次演示可能是OpenAI努力向政策制定者提高透明度的一部分,但如果政策制定者認(rèn)為該項(xiàng)技術(shù)形成威脅,那么他們可能給公司帶來(lái)麻煩。

不過(guò),一些業(yè)界人士對(duì)此并不買(mǎi)賬,因?yàn)镺penAI并未向公眾提升透明度。AI初創(chuàng)公司Abacus.AI CEO Bindu Reddy表示,封閉的OpenAI將他們最好的大模型藏在背后,以此來(lái)取得領(lǐng)先優(yōu)勢(shì)。“如果沒(méi)有開(kāi)源AI,我們都會(huì)完蛋,我們可能會(huì)把文明的控制權(quán)交給1到2家公司。”

三、寫(xiě)在最后

雖然這次藝術(shù)家們的泄露只是抒發(fā)出自己的不滿(mǎn),好像沒(méi)有造成更大的影響,但OpenAI的ChatGPT平臺(tái)被曝出一系列沙盒漏洞,用戶(hù)竟能在本不該接觸的環(huán)境中游刃有余,文件上傳、命令執(zhí)行甚至文件結(jié)構(gòu)瀏覽,這令人不禁想起黑客神秘的入侵操作。這些安全問(wèn)題的出現(xiàn),進(jìn)一步凸顯了OpenAI在網(wǎng)絡(luò)安全方面的潛在風(fēng)險(xiǎn)。

作者 & 編輯|賈桂鵬

本文由人人都是產(chǎn)品經(jīng)理作者【科技旋渦】,微信公眾號(hào):【科技旋渦】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來(lái)自Sora視頻截圖

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 出現(xiàn)惡意泄露,不得不說(shuō)以后用chatGPT難免會(huì)擔(dān)心,擔(dān)心這樣的事會(huì)再次發(fā)生。

    來(lái)自廣東 回復(fù)