2024會是企業(yè)級AI發(fā)展的元年,16個2B領(lǐng)域正在形成的趨勢與“非共識”
現(xiàn)在,企業(yè)對 AI 技術(shù)的接受度和付費意愿都有一定上升,而 2024 年,或許會成為 Gen-AI 技術(shù)在 B 端發(fā)展的元年。這篇文章里,作者就分享了關(guān)于「企業(yè)如何應(yīng)用 Gen-AI」的發(fā)現(xiàn),一起來看看吧。
最近在硅谷考察,見了 YC Batch 、GTC和灣區(qū)這邊的創(chuàng)業(yè)者后的一大感受是大家會更多關(guān)注 Infra 和模型的創(chuàng)業(yè),應(yīng)用層的創(chuàng)業(yè)以 B 端產(chǎn)品為主。因為背靠硅谷對技術(shù)的高接納程度,和創(chuàng)業(yè)團(tuán)隊聊下來一個很有體感的趨勢是企業(yè)對 AI 的接受和付費意愿有明顯的增長。對比國內(nèi),這邊對于 AI 在企業(yè)內(nèi)的落地節(jié)奏也相對較快,比如某大銀行的手機 APP 的搜索欄已經(jīng)全面和 AI chatbot 結(jié)合并合二為一。
美國某大行的手機銀行搜索欄
因為我自己也在企業(yè)里探索 AI ,作為一個偏算法的產(chǎn)品經(jīng)理,雖然在有了接口之后自己的技術(shù)模型全面轉(zhuǎn)向了大語言模型,但對于其真正投入到生產(chǎn)環(huán)節(jié),即模型直接面向消費者還需要很多機制的變化和問題待解決。最近 a16z 發(fā)布的一篇調(diào)研報告正好通過真實調(diào)研了 70 家前 500 公司的 AI 應(yīng)用情況,給出了 Gen-AI 的 B 端產(chǎn)品達(dá)到企業(yè)級應(yīng)用的核心問題和幾大趨勢,內(nèi)容涵蓋了目前個人切身體會到的關(guān)鍵卡點和正在形成的“共識”,雖然 2B 蠻難做,但變化也正在發(fā)生,值得交流探討。
Sense 思考:
我們嘗試基于文章內(nèi)容,提出更多發(fā)散性的推演和深思,歡迎交流。
2024 年會成為 Gen-AI 技術(shù)在 B 端發(fā)展的元年,企業(yè)將 AI 的預(yù)算從創(chuàng)新支出歸入經(jīng)常性收入,能夠識別痛點并找到AI解決方案的公司會實現(xiàn)飛速發(fā)展。目前對于使用 AI 的 ROI 判斷仍然比較模糊,但模型測評和效果評估依然重要。
企業(yè)正在偏向使用“多模型+開源模型”, a16z 預(yù)計 2024 年開源模型與閉源模型在市場中的比例將從去年的 2/8 轉(zhuǎn)變?yōu)?5/5。滿足數(shù)據(jù)安全的可控性、可定制模型是企業(yè)選擇模型的關(guān)鍵。同時特別值得注意的是,不同的開源/閉源模型變得趨同,因為企業(yè)更會拿微調(diào)的開源模型和微調(diào)的閉源模型的性能與他們自己的內(nèi)部基準(zhǔn)進(jìn)行比較。
目前企業(yè)使用 AI 主要是以“copilot”的形式內(nèi)部使用,沒有直接納入生產(chǎn)流程。納入生產(chǎn)環(huán)節(jié)意味著模型生產(chǎn)的內(nèi)容直接面向消費者,比如對于電商呈現(xiàn)的商品信息/視頻,用戶看到的內(nèi)容均通過模型直接生產(chǎn)而不依賴公司內(nèi)部業(yè)務(wù)的審核與標(biāo)注。這里面的難點在于機制的設(shè)計,讓模型生產(chǎn)的內(nèi)容最大化服務(wù)于生產(chǎn),這也是創(chuàng)業(yè)公司的機會。
2023 年,Gen-AI 在 ToC 市場的支出超過了 10 億美元,而 2024 年,在 ToB 應(yīng)用領(lǐng)域,收入機會將是消費者市場的數(shù)倍。去年,雖然個人用戶花了很多時間與新的 AI 伙伴聊天,或者使用 AI 制作圖像和視頻,但大多數(shù)企業(yè)對 Gen-AI 的應(yīng)用僅限于少數(shù)用例,并且使用到的產(chǎn)品更多也是“GPT-Wrapper”。所以,總會有人質(zhì)疑 Gen-AI 是否能夠發(fā)展為企業(yè)級應(yīng)用。
在過去的幾個月中,a16z 與數(shù)百位財富五百強的企業(yè)進(jìn)行了交談,并對其中 70 位進(jìn)行了調(diào)查,以了解他們對于 Gne-AI 的使用、購買以及預(yù)算。結(jié)果發(fā)現(xiàn),這些公司對于 Gen-AI 的預(yù)算在過去 6 個月的時間內(nèi),增加了 2 倍多,并且開始使用更多小型開源模型,也逐漸讓 AI 進(jìn)入業(yè)務(wù)真正的生產(chǎn)環(huán)節(jié)中。
這些結(jié)論對于 B 端的 AI 創(chuàng)業(yè)公司來說,是一個巨大的機遇,那些能夠識別到企業(yè)痛點,并且知道如何結(jié)合 AI 技術(shù)提供解決方案的創(chuàng)業(yè)公司,有很大概率會在 2024 年實現(xiàn)高速增長。下面帶來 a16z 調(diào)研中的 16 個關(guān)于「企業(yè)如何應(yīng)用 Gen-AI」的發(fā)現(xiàn)。
一、企業(yè) AI 預(yù)算大量增加,并將保持較長時間
1. Gen-AI 預(yù)算劇增
2023年,a16z 采訪的數(shù)十家公司在基礎(chǔ)模型 API、模型托管和微調(diào)模型方面的平均支出為 700 萬美元。此外,幾乎每家企業(yè)都看到了 Gen-AI 將對企業(yè)工作流程產(chǎn)生巨大效益,并計劃在 2024 年將支出增加 2 倍至 5 倍,以支持將 AI 嵌入到更多業(yè)務(wù)生產(chǎn)環(huán)節(jié)中。
2. 領(lǐng)導(dǎo)層開始把 AI 預(yù)算納入經(jīng)常性軟件預(yù)算范圍內(nèi)
去年,企業(yè)在 Gen-AI 的大部分支出,基本都來自“創(chuàng)新”預(yù)算或其他一次性資金池。然而,到 2024 年,許多領(lǐng)導(dǎo)者正在將這些支出重新分配到更經(jīng)常性的軟件項目上;
僅有不到 25% 的公司表示,Gen-AI 的支出將出自今年的創(chuàng)新預(yù)算。然而,我們也開始看到一些領(lǐng)導(dǎo)者將其 Gen-AI 預(yù)算用于節(jié)省員工人數(shù),特別是在客戶服務(wù)方面。如果這種趨勢繼續(xù)下去,這可能會是 Gen-AI 未來支出顯著增加的信號。
一家公司提到,通過其 LLM 驅(qū)動的客戶服務(wù)為每個呼叫節(jié)省約 6 美元,總共節(jié)省了約 90% 的成本,這是他們將 Gen-AI 投資增加 8 倍的原因。
下面這張圖,是 a16z 調(diào)研中,關(guān)于「組織如何分配其 LLM 支出」的總體情況:
3. 對于 AI 投入的 ROI 評估會變得越來越重要
企業(yè)領(lǐng)導(dǎo)者目前主要通過 AI 提高的生產(chǎn)力來衡量 ROI。雖然這依賴 NPS、客戶滿意度作為中間指標(biāo),但他們也在尋找更能量化的方法來衡量 Gen-AI 的投入回報,如收入的產(chǎn)生,準(zhǔn)確率的提高等,具體的評估方式則取決于企業(yè)的實際用例。
雖然企業(yè)領(lǐng)導(dǎo)層正在尋找「如何評估 Gen-AI 投入產(chǎn)出比」的答案,但當(dāng)他們的員工說他們正在更好地通過 AI 提高工作效率時,AI 的提效作用就變得毋庸置疑了。
4. 企業(yè)內(nèi)部缺少實施 Gen-AI 技術(shù)的人才
想要大規(guī)模構(gòu)建和部署企業(yè)內(nèi)部的 Gen-AI 解決方案,只靠提供一個 API 是遠(yuǎn)遠(yuǎn)不夠的。AI 的實施、維護(hù)和擴展,都需要高度專業(yè)化的人才。僅實施一項,其成本就占到了 2023 年 Gen-AI 總支出的最大領(lǐng)域之一,在某些情況下也是最大的。
為了幫助企業(yè)在 AI 模型上的啟動和運行,基礎(chǔ)大模型廠商提供并仍在提供專業(yè)服務(wù),通常都與定制模型開發(fā)相關(guān)。a16z 預(yù)估,2023 年,定制模型的開發(fā),是基礎(chǔ)大模型公司總收入中的很大一部份;因此,企業(yè)在采購時,除了考慮模型性能外,「能夠?qū)嵤┞涞亍挂彩瞧髽I(yè)采購的關(guān)鍵因素之一。由于在企業(yè)中很難找到合適的 Gen-AI 人才,所以那些能讓企業(yè)更容易將 Gen-AI 實施落地部署的初創(chuàng)公司,可能會有更強的業(yè)務(wù)增長潛力。
二、模型選擇:多模型,且擁抱開源
1. 多模型的未來
6 個月前,絕大多數(shù)企業(yè)嘗試的模型數(shù)量都在都在嘗試 1 個(主要是 OpenAI 的)或 2 個。但是,這次 a16z 的調(diào)研顯示,大多數(shù)人的企業(yè)領(lǐng)導(dǎo)者都在嘗試使用多個模型。
多模型的選擇對他們來說,一是可以根據(jù)性能、規(guī)模和成本定制最佳解決方案;二是分散投資,避免被一家廠商影響過大;三是能夠快速體驗到 Gen-AI 最新技術(shù)——第三點對領(lǐng)導(dǎo)者尤為重要,因為模型排行榜是動態(tài)變化的,公司很高興將當(dāng)前最先進(jìn)的模型和開源模型結(jié)合起來,以獲得最佳實踐。
我們很可能會看到更多的模型激增。在下方這張圖中,顯示了 a16z 報告中,企業(yè)對于市面主流模型的采用比例。顯然,OpenAI 仍然主導(dǎo)市場份額,市占率遠(yuǎn)超過其他模型廠商。
2. 開源模型正在加速發(fā)展
根據(jù) a16z 的估計,2023 年的 AI 大模型市場,80%-90% 均為閉源,且大部分都是 OpenAI。
然而,在這次調(diào)研中,46% 的調(diào)查者提到,他們會在 2024 年嘗試更多開源模型。且近 60% 的領(lǐng)導(dǎo)者指出,當(dāng)開源模型能夠直接或經(jīng)過微調(diào)后,達(dá)到與閉源模型一樣的性能,解決實際的業(yè)務(wù)問題時,就會考慮完全切換到開源模型。
3. 可控性、可定制,是企業(yè)采購 Gen-AI 時的關(guān)鍵因素
雖然開源模型的使用,會在一定程度下降低企業(yè)成本,但是,成本并不是企業(yè)考慮的最主要因素。模型是否可控,例如數(shù)據(jù)是否安全,能否理解模型產(chǎn)生某些輸出的背后原因,以及模型是否可定制,能夠讓企業(yè)微調(diào)產(chǎn)出最佳效果,這 2 個因素的考慮相比成本來說,遠(yuǎn)遠(yuǎn)重要得多。
4. 為什么在意可控性:數(shù)據(jù)安全與敏感場景
出于監(jiān)管或數(shù)據(jù)安全的考慮,企業(yè)仍然不愿意與閉源模型提供商共享其業(yè)務(wù)數(shù)據(jù)——毫不奇怪,IP 對其商業(yè)模式至關(guān)重要的公司尤其保守。雖然一些企業(yè)領(lǐng)導(dǎo)人通過自己托管開源模型來解決這一問題,但其他人指出,他們正在優(yōu)先考慮具有虛擬私有云(VPC)集成的模型。
5. 選擇微調(diào),而不是從 0 開始做
2023 年,大家都在追求構(gòu)建像 BloombergGPT 這樣的自定義模型。到 2024 年,企業(yè)仍然對自定義模型感興趣,但隨著高質(zhì)量開源模型的興起,大多數(shù)企業(yè)選擇不再從 0 開始訓(xùn)練自己的 LLM,而是使用檢索增強生成(RAG)或微調(diào)開源模型以滿足其特定需求。
6. 在模型采購中,云是非常重要的因素
2023 年,許多企業(yè)出于安全原因通過現(xiàn)有的云服務(wù)提供商(CSP)購買模型——領(lǐng)導(dǎo)者更關(guān)心閉源模型處理數(shù)據(jù)不當(dāng),而不是他們的 CSP——并避免冗長的采購流程。
2024 年仍將保持這個趨勢,這意味著 CSP 和首選模型之間的相關(guān)性相當(dāng)高:Azure 用戶普遍更喜歡 OpenAI,而亞馬遜用戶更喜歡 Anthropic 或 Cohere。正如我們在下面的圖表中看到的,72% 使用API訪問其模型的企業(yè)中,超過一半的企業(yè)使用了其 CSP 托管的模型。
7. 關(guān)心新功能
盡管推理能力、可靠性和易于訪問,是企業(yè)評估模型的主要因素,但對于差異化的功能,也非??粗?。例如,多位領(lǐng)導(dǎo)者表示,采用 Anthropic 的關(guān)鍵原因,就是因為其支持 200K 上下文;而采用 Cohere 的客戶表示,主要的原因在于其提供了更方便的模型微調(diào)方案。
8. 大多數(shù)企業(yè)認(rèn)為模型正在趨同
盡管大部分技術(shù)社區(qū)專注于將模型性能與公共基準(zhǔn)進(jìn)行比較,但企業(yè)領(lǐng)導(dǎo)者更專注于將微調(diào)的開源模型和微調(diào)的閉源模型的性能與他們自己的內(nèi)部基準(zhǔn)進(jìn)行比較。
有趣的是,盡管閉源模型通常在外部基準(zhǔn)測試中表現(xiàn)更好,但企業(yè)領(lǐng)導(dǎo)者仍然給予開源模型相對較高的NPS(在某些情況下更高),因為它們更容易針對特定場景進(jìn)行微調(diào)。
一家公司聲稱,“經(jīng)過微調(diào),Mistral 和 Llama 的性能幾乎與 OpenAI 一樣好,但成本要低得多?!备鶕?jù)這些標(biāo)準(zhǔn),模型性能的收斂速度比我們預(yù)期的要快,這意味著 ToB 的模型市場,最后大概率是一個買方市場。
9. 優(yōu)化多模型切換
大多數(shù)的企業(yè)正在設(shè)計便于在各種模型 API 之間切換的應(yīng)用程序,或者有的公司也在建立自己的“模型花園”,這樣都能便于公司業(yè)務(wù)不會只依靠單一模型,畢竟,市場變化如此之快,如果只依賴單一供應(yīng)商,其運營風(fēng)險將是非常大的。
三、Gen-AI 技術(shù)開始進(jìn)入生產(chǎn)環(huán)境
1. 企業(yè)正在把聊天機器人納入生產(chǎn)
越來越多的企業(yè)專注于在內(nèi)部構(gòu)建應(yīng)用程序,稱缺乏經(jīng)過戰(zhàn)斗考驗的、殺死類別的企業(yè)AI應(yīng)用程序是驅(qū)動因素之一?;A(chǔ)模型還通過提供 API 使企業(yè)比以往任何時候都更容易構(gòu)建自己的 AI 應(yīng)用程序。
企業(yè)現(xiàn)在正在構(gòu)建的常見用例——如客戶支持和內(nèi)部聊天機器人——同時也在嘗試更新穎的用例,如編寫 CPG 配方、提出銷售建議。由于企業(yè)構(gòu)建內(nèi)部 AI 工具的成本進(jìn)一步降低,因此像更多“GPT-Wrapper”的工具,比如簡單的文章總結(jié),聊天機器人等應(yīng)用,可能會逐漸在市場內(nèi)失去競爭力。
然而,當(dāng)更多以企業(yè)為中心的 AI 應(yīng)用程序進(jìn)入市場后,這種情況是否會發(fā)生變化仍有待觀察。一位受訪者指出,盡管他們正在內(nèi)部構(gòu)建許多 AI 應(yīng)用,但他們樂觀地認(rèn)為“將會有新的工具出現(xiàn)”,并更愿意“使用最好的”。
a16z 認(rèn)為,超越“LLM + UI”公式并重新思考企業(yè)的底層工作流程或幫助企業(yè)更好地使用自己的專有數(shù)據(jù)的 AI 應(yīng)用,會變得更為重要。
2. 企業(yè)更愿意在內(nèi)部使用 Gen-AI,而非外部
這是因為關(guān)于 Gen-AI 的兩個主要問題仍然在企業(yè)中占據(jù)重要地位:
- 數(shù)據(jù)安全的潛在問題;
- 部署 Gen-AI 問題,特別是在敏感的消費領(lǐng)域(例如醫(yī)療保健和金融服務(wù))。
過去一年中最受歡迎的用例要么專注于內(nèi)部生產(chǎn)力,要么在到達(dá)客戶之前讓人類作為最好一道“卡扣”,例如編碼副駕駛、客戶支持和營銷??梢栽谙旅娴膱D表中看到,這些用例在 2024 年仍然在企業(yè)中占主導(dǎo)地位,企業(yè)會將完全內(nèi)部的用例,如文本摘要和知識管理(例如內(nèi)部聊天機器人)推向生產(chǎn);
但對于與客戶相關(guān)的場景,如合同審查,外部聊天機器人或推薦算法,企業(yè)會避免發(fā)生服務(wù)崩潰的 Gen-AI 事故,像之前加拿大航空公司;由于這些擔(dān)憂對大多數(shù)企業(yè)來說仍然很重要,所以,如果構(gòu)建有助于控制這些問題的 AI 初創(chuàng)企業(yè),2024 年也會實現(xiàn)快速增長。
四、Gen-AI B 端市場:巨大且增長迅速
根據(jù) a16z 的預(yù)估,模型 API(包括微調(diào))市場截至 2023 年約為 15 億美元到 20 億美元,包括通過 Azure 在 OpenAI 模型上的支出。
鑒于整體市場的預(yù)期增長和企業(yè)的具體跡象,僅在這一領(lǐng)域的支出將在年底增長到至少 50 億美元,具有顯著的上漲潛力。一是企業(yè)已經(jīng)優(yōu)先考慮 Gen-AI 部署,將增加預(yù)算并將其重新分配到常用支出項,二是企業(yè)也開始計劃在 2024 年將更多的業(yè)務(wù)場景納入 AI,企業(yè)端會成為模型市場中的主要買單群體。
參考材料:
https://a16z.com/generative-ai-enterprise-2024/
編譯:RAY;編輯:Vela
來源公眾號:深思SenseAI;關(guān)注全球 AI 前沿,走進(jìn)科技創(chuàng)業(yè)公司,提供產(chǎn)業(yè)多維深思。
本文由人人都是產(chǎn)品經(jīng)理合作媒體 @深思SenseAI 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自 Unsplash,基于CC0協(xié)議
該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。
- 目前還沒評論,等你發(fā)揮!