讓AI當你的辦公助手,還差幾步?
在AI大模型出現(xiàn)之后,AI與辦公軟件的融合,也逐漸成為了趨勢之一,比如近日釘釘展示了AI功能,WPS也在加緊研發(fā)“WPS AI”。那么生成式AI如果想走入辦公軟件,過程中可能會遇到哪些阻力呢?一起來看看作者的分析和解讀。
辦公軟件正在從工具變成“助手”甚至“同事”。
在阿里的通義千問大模型面世一周后,4月18日,阿里釘峰會上釘釘總裁葉軍(不窮)現(xiàn)場演示了釘釘?shù)乃膫€AI應用場景為:群聊、文檔、視頻會議及應用開發(fā)。表示釘釘與大模型融合場景正在測試中,將在相關安全評估完成上線。此次會上,釘釘?shù)腁I功能被搬到現(xiàn)場進行展示。
Notion接入ChatGPT能力的NotionAI早已上線,微軟和谷歌也分別宣布了Microsoft 365 Copilot,以及Docs和Gmail的生成式AI能力。本周,國內對標Microsoft 365最緊密的WPS也宣布正在研發(fā)“WPS AI”,各類辦公軟件。
NotionAI的生成內容
在協(xié)同辦公SaaS軟件中,最早引入ChatGPT的NotionAI已經把生成式AI能力開放出來。不過,在C端和B端上,推出AI產品的方向和難度有很大不同。有SaaS行業(yè)內人士對虎嗅表示,“不同公司在AI能力上線方面的考慮肯定有所不同,微軟要推出一個C端AI產品可能很容易,但要上線B端產品,則需要考慮很多問題,包括用戶接受度、軟件安全性、定價,甚至是ESG等問題?!?/strong>
那么生成式AI要走進辦公軟件中,需要解決哪些挑戰(zhàn)呢?
一、內容安全性或成生成式AI最大阻力
生成式AI在內容安全性方面,以及隱私保護方面都面臨著巨大的監(jiān)管挑戰(zhàn)。目前各國對生成式AI的監(jiān)管力度正在加強,從意大利數(shù)據(jù)保護局第一個禁用ChatGPT以后,法國、西班牙有關部門也對ChatGPT展開了調查。美國商務部下屬的國家電信與信息管理局,則正在調查對于企業(yè)和監(jiān)管機構如何確保人工智能系統(tǒng)是值得信賴、合法及合乎道德。
“產品有很多,成熟一個上線一個”葉軍對釘釘AI產品的上線規(guī)劃非常有信心,但他表示目前具體的上線時間,還要等待監(jiān)管部門的審批。葉軍說:“AI生成的內容,不知道誰寫的,一分鐘生成無數(shù)條,可能一下子就會破壞整個網(wǎng)絡純潔的環(huán)境?!?/p>
4月11日,就在阿里通義千問發(fā)布會的同一天,國家互聯(lián)網(wǎng)信息辦公室下發(fā)了《生成式人工智能服務管理辦法(征求意見稿)》的通知。目前我國已經出臺的AI相關監(jiān)管條例,包括《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》和《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》,并均已開始生效。除此以外,還有一些分散在《民法典》、《數(shù)據(jù)安全法》、《網(wǎng)絡安全法》等法律法規(guī)中。
對于安全問題,OpenAI首席執(zhí)行官Sam Altman就在最近的一次公開講話中表示,隨著模型的能力越來越強,與之對應的安全措施也需要增加。在GPT-4發(fā)布后,OpenAI一直致力于處理各種亟待解決的安全性問題。OpenAI的總裁兼聯(lián)合創(chuàng)始人Greg Brockman則發(fā)推稱,“OpenAI花了6個月的時間測試GPT-4,力圖讓這個AI更加安全?!?/p>
“AI其實是黑盒,是煉丹爐,煉出來什么不知道?!比~軍表示,AI生成的內容,有些是不可控的,對于生成的結果還要做二次處理,二次處理相關的機制和安全審批的能力,比UGC(User Generated Content,用戶生成內容)更難控制。
“通常情況下,AI技術供應商,對于AI生成的不安全內容也負有責任?!庇^韜中茂律師事務所合伙人王渝偉律師告訴虎嗅,AI技術供應商,包括深度合成服務提供者和技術支持者,《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》對其規(guī)定了較高的監(jiān)督管理義務和完善數(shù)據(jù)和技術管理規(guī)范義務,若因未盡到這些義務,AI生成內容不符合法律規(guī)定,則需要承擔一定的法律責任。
“生成式大模型的不準確問題,可能會在很多不容馬虎的細節(jié)問題上出錯。”在安全問題上,某AI大模型業(yè)內人士以文生圖的Diffusion(擴散式)模型給虎嗅舉了一個例子,擴散式生成模型的核心是通過逐步“擴散”噪聲信號來生成所需數(shù)據(jù),同時不需要使用顯式的先驗概率分布。也就是通過“猜”把一張模糊的圖片一步步銳化成一張清晰的圖片。而在這個“清晰化”的過程中,很難把控圖片的精細之處。比如五星紅旗上有幾顆星,地圖的邊界線究竟在哪等在細節(jié)上要求非常嚴格的問題,對于AI來說,都是很難保證正確的。由于文生文模型也采用了讀上一個詞“猜”下一個詞的機制,因此很難在細節(jié)上把控安全性。
就安全問題,虎嗅從某國內大型語言模型(LLM)創(chuàng)業(yè)公司處了解到,目前國內已有一些基于大模型的Chatbot(聊天機器人)產品,但多數(shù)都受到安全問題限制,正在按要求自查,并等待審批。
二、大模型是底座,還需要小模型
不穩(wěn)定,是生成式AI天生的缺陷,當面對C端用戶時,AI只是一個聊天機器人,不穩(wěn)定的因素在于內容安全性。在大模型與用戶之間添加一個過濾機制即可,很多傳統(tǒng)的關鍵詞過濾技術都可以解決這種問題,在AI技術加持下,也可以用一個過濾不安全內容的AI小模型實現(xiàn)更好的過濾效果。
B端用戶的業(yè)務壁壘在于其所在領域或行業(yè)中的實踐經驗、技能和知識行業(yè),也就是人們常說的KnowHow,而要讓AI大模型在實際業(yè)務中發(fā)揮作用,則需要利用這些行業(yè)型KnowHow對AI進行專門的訓練。在這方面,AI業(yè)界和應用產業(yè)似乎已經有了一些共識:AI大模是底座,是導航,而要真正把AI能力落地到業(yè)務中,還需要專門訓練聚焦行業(yè)的中、小模型。
AI大模型在面對B端用戶時,生成的內容不僅要安全,還要可靠,要對用戶的業(yè)務負責,甚至每個字都容不得馬虎。不過,AI大模型的效率提升對于B端用戶來說,吸引力很大,在很多垂直行業(yè)都已有先驅廠商開始探索了。
在工業(yè)領域,西門子日前剛剛宣布將和微軟合作,借助OpenAI的ChatGPT幫助軟件開發(fā)人員和自動化工程師使用自然語言輸入生成PLC(可編程邏輯控制器)代碼,從而減少時間成本并降低錯誤率。同時,這些能力還有助于維護團隊以更快的速度識別錯誤,并逐步生成解決方案。
“利用AI編寫PLC代碼肯定會在流程上減少工程師的工作量。”上海優(yōu)也信息科技有限公司首席科學家郭朝暉認為,利用AI編寫PLC代碼在工業(yè)上很有可行性,但從安全角度出發(fā),在代碼生成之后,還應該有人類參與檢查。
作為一個電腦程序,ChatGPT發(fā)布以來,編程能力就一直受到工程師們的重點關注,微軟在GitHub中也推出了AI編程助手Copilot。同為“寫代碼”,在工業(yè)領域自然也已經有PLC工程師嘗試用ChatGPT編寫代碼。一位PLC工程師告訴虎嗅,“目前來看ChatGPT的PLC編碼能力不比普通工程師弱,但對于輸入prompt(提示詞)的理解能力還有優(yōu)化空間,且生成的最終代碼有些需要人工修改。”
不過,郭朝暉也認為ChatGPT要在工業(yè)領域推廣,還需要解決工程師使用習慣和數(shù)據(jù)基礎等問題,同時在工業(yè)設備中使用ChatGPT的條件也還有需要進一步優(yōu)化。
在另一個嚴肅行業(yè)醫(yī)療領域中,ChatGPT的應用常被人認為更加馬虎不得。但研發(fā)醫(yī)療行業(yè)大模型的左手醫(yī)生團隊CEO張超認為,雖然醫(yī)療行業(yè)的內容需要非常嚴謹,但是不同場景,對于生成式內容的風險接受度也不同。“我們把醫(yī)療行業(yè)分成4個象限,對于生產式AI的風險,我們可以從這4個象限的角度來分析?!?/strong>
張超介紹說,這4個象限首先是以知識探索為目的的頭腦風暴象限,在這個象限中,是允許大膽出錯的,這個場景對正確信息的召回更重要。第二象限是文書處理類,這個場景中,AI需要做的就是歸納總結,按圖索驥,出錯的概率不大,即使出錯也可以以較低成本更正,并且更正結果可以推動模型升級。第三象限是臨床決策類,臨床決策任務是一個比較特定的任務,在這個場景中AI是醫(yī)生的助手,而AI生成的內容,可以由醫(yī)生去把控風險。
“真正存在風險的是第四象限,就是在AI給沒有鑒別能力的人提供服務的場景中?!睆埑J為,雖然這個場景中存在一定的風險,但是可以通過對AI生成內容溯源的方式來規(guī)避風險,“我們可以讓基于文檔嵌入(Document Embedding)等手段,大模型在圈定的知識范圍內給出答案,通過縮小服務邊界來控制風險?!?/strong>
當然,這種形式可能又會使患者陷入“信息獲取繭房”,不過張超表示,新技術肯定會存在局限性,但是落地、研發(fā)團隊的任務就是想辦法找更好的場景去避免這種局限性,讓技術能夠為這個場景產生更大的價值。
三、定價難題怎么解
AI辦公軟件市場化的另一個難題,那就是定價。
在工作當中,一個生產力相同的同事,和只能幫忙查資料、整理文案的助理,在工資方面肯定是不一樣的。AI在用戶業(yè)務中的定位自然也直接影響到它的定價問題。對于用戶來說,“AI助理”的價格后續(xù)相當于購買SaaS工具,自然是能低就低。但如果是“AI同事”,那對它投入幾何,就要考察它的執(zhí)行能力了。
目前國外付費的生成式AI服務以OpenAI和Midjourney兩家最為知名。Midjourney的收費標準有兩種,一種是月費,一種是按圖計費。月費是23美元一個月,計次則是8美元用200次。ChatGPT Plus的收費標準是20美元一個月,每3小時可以使用25次GPT-4模型。
此外,OpenAI最新模型GPT-4的API接口采取按token收費的政策,已公布的GPT-4的API價格是純文本輸入每1k個prompt token定價0.03美元,每1k個completion token定價0.06美元。默認速率限制為每分鐘40k個token和每分鐘200個請求。
百度在發(fā)布文心一言之后,也對合作伙伴公布了名為文心千帆的云服務產品,據(jù)參加文心千帆發(fā)布會的百度客戶透露,文心千帆的定價為——推理服務調用以0.012元/1000 tokens收費,按調用輸入輸出總字數(shù)付費。
在這方面,阿里云還沒有公布相關的定價政策,不過葉軍向虎嗅透露,釘釘?shù)亩▋r將參考Midjourney和OpenAI,“我們肯定比他們(Midjourney和OpenAI)定價低一點,我們得承認(技術)還是有一些差距,不能定太高的價格,而且普惠一點,前期對特定用戶,甚至有一定的時長的優(yōu)惠。”同時,在釘峰會上葉軍還重點強調了具備AI能力的釘釘個人版。并提出未來的“個體戶”可能會存在“一個人+一群AI助手”的新模式。
AI的生產力在圖像創(chuàng)意領域已經得到了很多專業(yè)人士的認可,某知名媒體產品設計總監(jiān)告訴虎嗅,“一個Stable Diffusion模型訓練好了,能省出幾個人的成本?!?/p>
對于B端業(yè)務來說,如果AI真的可以節(jié)省幾個人的話,那么它的定價范圍會更加寬泛。不過,在創(chuàng)意文案和對文字有要求的業(yè)務中,AI目前的生成能力可能只能替代初級人類員工的工作。美版今日頭條Buzzfeed的AI撰稿機器人Buzzy,就被網(wǎng)友質疑其撰寫的文章中,有五分之一的采用了幾乎相同的開頭。
雖然葉軍在釘釘利用AI生成文案的案例演示過程中,反復表示“通義千問生成的內容比我寫得好”,但是仔細看過內容之后還是會發(fā)現(xiàn)釘釘生成的內容很“AI”,會出現(xiàn)一些華而不實的口水詞堆砌情況。
釘釘生成的推廣文案內容
不過,AI能力也是會在不斷迭代中進步的,葉軍告訴虎嗅,“目前已經有很多釘釘?shù)纳疃群献饔脩籼岢隽嗽囉靡庀?,未來最先開放AI能力試用的行業(yè)也可能會是教育。”
作者:齊健,編輯:陳伊凡;出品:虎嗅科技組
來源公眾號:虎嗅APP(ID:huxiu_com),從思考,到創(chuàng)造
本文由人人都是產品經理合作媒體 @虎嗅 授權發(fā)布,未經許可,禁止轉載
題圖來自 Unsplash,基于 CC0 協(xié)議
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
AI當辦公助手還存在一定差距,大致還需以下幾個步驟:
1. 提高人工智能的學習和理解能力。目前的AI對語言的理解還不及人,需要更強大的數(shù)據(jù)和算法來提高自然語言處理的能力,才能更好地理解人的意圖和需求。
2. 擁有更廣博的世界知識。AI助手需要有廣泛的常識知識和對人工知識的理解(比如日常辦公流程),才能給人以準確高效的幫助。這需要豐富的訓練數(shù)據(jù)和強大的知識圖譜作為支持。
3. 增強交互體驗。 DAG應該擁有更人性化的交互方式、友好的回復表達和聊天功能,給人以親切順暢的用戶體驗。這需要語言生成、個性表達等方面的提高。
4. 具備更強的推理和解決問題的能力。AI需要能深入理解問題和相關背景知識,進行復雜的推理,得到最佳解決方案。這需要建立復雜的知識網(wǎng)絡并具備強大的推理機制。
5. 提供更豐富多樣的服務。DAG不僅需要提供基本信息查詢、日程管理等服務,還需要更廣泛的功能,如文件管理、項目協(xié)作、資源調配等復雜服務,來滿足人們的實際需求。
綜上,AI當真正的辦公助手還需要突破幾個關鍵步驟,包括提高學習理解能力、擁有更豐富知識、增強交互體驗、具備更強推理能力、提供更豐富服務等。需要AI在多個方面取得大幅進步,才能真正達到人工智能辦公助手的要求和水平。這還需要一定的時間和技術積累。
AI智能進入辦公領域是一個很讓人期待的事情,但同時也應該做好更充分的準備