百度沈抖:開源模型大概率不會成為主流,也不會形成完整閉環的商業模式

9月6日消息,2023百度云智大會上,百度智能云千帆大模型平臺宣布實現2.0全面升級,首次公布月活企業數已近萬家,覆蓋金融、制造、能源、政務、交通等行業的400多個業務場景。
8月31日起,包括“文心一言”在內的多款大模型陸續通過備案,正式對公眾開放。沈抖說,在文心一言開放當天,在百度智能云千帆大模型平臺上,日活企業數增長超過 40%。——后者是百度面向企業端推出的大模型開發與管理平臺。在“文心一言”放開后的第24個小時,沈抖進到后臺看數據,發現文心一言回答了用戶“3342 萬個”問題,這個數字超出了他的預期。
對此,極客公園與百度集團執行副總裁、百度智能云事業群總裁沈抖進行了一次對話。
(圖源百度智能云公眾號截圖)
在對話中,沈抖表示用戶對文心一言的期待超乎他的預期。“我們本來也覺得‘看熱鬧’的少了,所以預期沒有那么高。沒想到當天有3342萬個回答量,這說明用戶對文心一言期待還是很高的。大家不是上來問一句、兩句就走了,而是經過了多輪的對話。從這個角度上來說,用戶的熱情還在。”
沈抖透露,做千帆的目的,就是要降低大模型的部署門檻、推動大模型的廣泛應用。
對于開源模型的看法,沈抖認為機器、數據的成本都太高了。“我覺得它大概率不會成為主流,也不會形成完整閉環的商業模式。”
圖注:百度集團執行副總裁、百度智能云事業群總裁沈抖
(圖源百度智能云公眾號)
以下為《極客公園》與沈抖的對話內容:
問:看熱鬧到了真正干實事的時候。前兩天,百度在C端開放了文心一言,你怎么看這個用戶使用數據?在意料之中還是意料之外?后臺的運維能力是怎樣的?
沈抖:數據是我當天晚上12點半發到群里,同事們第二天就發布了這個數據。數據是我從系統里截的,原封不動地呈現給了外界,絕對真實。
我們本來也覺得“看熱鬧”的少了,所以預期沒有那么高。沒想到當天有3342萬個回答量,這說明用戶對文心一言期待還是很高的。大家不是上來問一句、兩句就走了,而是經過了多輪的對話。從這個角度上來說,用戶的熱情還在。
文心一言從3月16號開始內測已經有五六個月時間,無論在效果提升、還是成本降低上,都給了我們比較充裕的準備時間。比如文心大模型的推理速度已經較當初提升了30多倍,大幅降低了推理成本,也讓我們能夠承載得了這么大的用戶量。
問:所以這段時間百度大模型的技術進步,也包含成本上的進步?
沈抖:對,大模型本身就是資源密集型的技術范式。
我們開始沒有想到流量會這么大,機器(算力)資源本身很寶貴,我們覺得放太多機器在那兒也是浪費,就沒有額外放太多機器。當天用戶規模上來以后,好在因為我們的推理性能提高了,所以還是給用戶提供了穩定的服務。
我們手里也握著不錯的算力儲備,接下來也會繼續降低訓練、推理的成本,滿足用戶需求沒有問題。當時我們內部群里討論,流量來了能不能抗住。我說,讓流量來得更猛烈些,都是幸福的煩惱。
問:文心一言在C端的放開,對百度的好處是什么?
沈抖:你可能擔心的是,向C端開放如果不能帶來商業價值,是不是可持續的問題。
事實上,只要真正給用戶創造了價值,商業化只是時間早晚的問題。技術發展史上,那些有價值但變現難的事例很少。文心一言確實給C端用戶帶來了真真實實的價值,昨天我看有一些評論講,沒有了文心一言,他的辦公效率就會下降。所以只要有價值,未來文心一言的商業化是順其自然的。
問:中國大模型的C端產品形態,會跟Chat GPT保持一致嗎?也就是訂閱制收費嗎?
沈抖:現在講大模型的產品形態還太早了,它的定義也還沒有那么清楚。
當年移動互聯網起來的時候,我們可以用幾個關鍵詞講清楚它的定義,比如SoLo Mo(Social、Local、Mobile,利用社交媒體、地理定位服務和移動終端設備提供更好的用戶體驗)。但現在大模型還無法用幾個明確的詞定義。它的能力更強大,但邊界也更寬泛,還遠沒到收斂產品形態的時候。
Open AI是技術驅動的公司,用戶體驗其實不是它的強項。它今天設計出的產品形態還很早期,接下來產品的迭代速度會非常快、形態也會劇烈變化。
問:Chat GPT向C端用戶收訂閱費的商業模式,在中國是可行的嗎?
沈抖:我們可能會演變出新的變現方式,比如常見的廣告、電商加游戲三大變現方式。
如果你愿意一個月花兩千塊錢雇一個助理,那當AI能做助理1/10的事情,比如幫你制定旅游行程、預定機票和酒店、甚至調動打車和外賣軟件等,你會不會愿意花兩百塊?只是變現方式不一定是會員費,可能是交易傭金或其他方式。
再比如,游戲里邊一堆NPC角色都是生成式AI驅動的、電商領域“數字人”直播也由生成式AI支撐,這都可能產生不同的變現方式。最終C端的產品形態,決定了它的變現方式。
問:如果C端產品最終是生產力工具,有沒有可能不是個人掏錢、而是公司給個人掏錢?
沈抖:有可能。比如百度網盤也算是一個效率工具,很多公司會買網盤賬號給員工用。我們還接觸過企業,給每個員工配一個Copilot賬號寫程序。這都是企業給個人買單的案例。
問:作為內容公司,我們也特別想用大模型來生產文章。你們剛上線了ToB的大模型服務平臺“千帆”,推出“千帆”的背景是怎樣的?能怎么幫助零程序員的公司部署大模型?
沈抖:這是非常好的問題。事實上,這就是我們做千帆平臺的原因。
這次大模型在B端落地的特點是大公司先行,很多客戶都是金融機構、能源機構、教育機構等。它們有一個明顯的特點是需要私有化部署,但這樣門檻很高,還要自己培養一堆技術人員迭代模型,可能會減慢大模型生效的時間。
反倒像很多中小公司,你們大概率不會排斥一個(平臺型)SaaS產品,也不會排斥公有云。千帆平臺就是這樣的產品。企業可以在上面直接調用API,也可以訓練樣本做微調,幾乎零代碼打造自己的模型。我們做千帆的目的,就是要降低大模型的部署門檻、推動大模型的廣泛應用。
問:似乎你們和OpenAI的路徑有所不同。OpenAI是先推C端產品ChatGPT,再慢慢推B端產品,百度卻是C端和B端齊頭并進。為什么會有這種差異?
沈抖:技術都有接受度的問題,得讓更多的用戶真正用它,找到它的價值所在。大家都在談大模型,但多少人真的用過大模型?B端企業客戶更能感受到大模型對它們整個生產范式的潛在影響,它們更需要用起來。
但如果它們既不用公有云的API,也不自己搭一套環境去體驗、嘗試,那就是純粹在那兒天馬行空地想象。所以我們需要做千帆,讓它們先把大模型用起來。其實關于大模型的全方位開放,C端等了很久,B端也等了很久。只是B端離商業化更近。
問:文心一言放開后,千帆平臺的B端需求被拉動了多少?
沈抖:在文心一言開放的當天,在百度智能云千帆大模型平臺上,日活企業數增長超過40%,考慮到TOB的反應速度通常滯后一些,實際的情況會更好一些。
放開不僅會拉動C端數據上漲,也一定會拉動B端的數據上漲。因為這會幫B端企業降低成本、加快迭代速度(注:用國內模型成本更低、更方便)。
但從數據漲幅上,B端暫時還比不上C端。今天假設有人要在B端用“文心一言”,他與其上來就調用API,不如先去C端體驗一下。當他認為體驗好,才會來千帆上用它。讓B端用起來,需要一個培育的過程。
問:如果C端和B端齊頭并進,你們怎么設置優先級?重點主要放在C端還是B端?
沈抖:當資源出現沖突時,才需要設置優先級。大模型的特點是,它在底下很厚的一層都是通用的,那在上面找應用,無論To B還是To C,都是百度要齊頭并進做的。沒有到資源沖突的地步。
在C端,百度正在積極研究大模型可落地的產品形態和商業模式。百度要基于大模型重構自己的C端產品,比如從百度自己的產品數據來看,百度網盤、百度文庫等產品,基于大模型重構后,用戶使用粘性和會員付費率都有很大提高;全新打造的文心一言APP和重構后的百度搜索,也成為大模型應用新入口。在B端,百度智能云通過打造出最好的大模型平臺,服務好To B市場。
問:其實最通用的基座是你們的云計算,無論服務內部客戶、還是外面客戶,都是你們的成功。
沈抖:是的,你服務好了內部客戶、就服務好了外部客戶,服務好了外部客戶、就服務好了內部客戶,這是MaaS的美妙之處。否則的話,假設外部和內部完全是兩套技術棧,成本就太高了。
我們是兩條腿走路。百度當然希望能做出一鳴驚人的ToC產品,但我們也非常愿意通過底層大模型和算力,支撐更多的企業和開發者做出好的ToC應用。其實無論上面誰成功,都是底層大模型的成功。
問:除了文心一言外,千帆平臺還上線了其他模型。千帆跟Hugging Face這樣的模型聚合平臺有什么區別?
沈抖:在目前或相當長一段時間內,不管是出于模型的場景適配性、還是客戶的心理需求,企業都希望能嘗試不同的模型。從這個角度來講,我們也需要提供第三方模型。
但也不是每一個模型都值得去試,那會是很大的資源浪費。所以千帆有自己的篩選原則,我們放上來的都是相對比較優秀、易用的模型。
問:所以Hugging Face的定位是社區,千帆的定位是平臺?
沈抖:沒錯。千帆不只是解決你來選模型的問題,更解決你把模型真正用起來的問題。用起來又包括數據、訓練、調優、Prompt工程,以及應用搭建等一系列問題,還要充分考慮到成本和效率。千帆提供的是一站式服務,這是千帆跟Hugging Face的區別。
Hugging Face模型廣度足夠,而千帆依托云廠商天然的優勢,有足夠大的運營空間,也可以做到端到端的訓練和推理性能優化。例如,訓練過程中的加速,故障的快速感知、定位、恢復;推理過程中基于百度龐大的異構計算集群的擴展性,有非常好的資源彈性,也可以提供serverless的服務,使得客戶獲得低基礎設施成本、無需運維、高擴展性的收益。這是千帆要比Hugging Face做得更深的地方。
問:你似乎不看好開源模型,但開源攤薄了企業部署大模型的成本,也不能說它沒有意義。你到底怎么看開源模型?
沈抖:你說LLaMA(注:Facebook的開源大模型)的成本誰攤?是Facebook。那Facebook的成本誰攤?如果想不清楚這個問題的終點,那它(開源)就是無源之水、無本之木,終歸有一天會出問題。
因為這跟傳統的開源軟件不一樣,過去一個人參與開源的投入,就是他自己的時間成本。但今天如果一個人想搞開源大模型,機器、數據的成本都太高了。
問:可以用愛發電,不能用愛計算。
沈抖:對,訓一輪你得扔幾千萬進去。
今天跟傳統開源玩法有一點相似是,它們都是用開源來吸引用戶的注意力,最終還是希望選其他(閉源)大模型。
問:有沒有可能出現類似RedHat和IBM的關系(注:2018年,IBM宣布收購全球最大的開源公司紅帽)?假設像IBM這樣不甘心的有錢企業主,愿意支持開源方呢?這樣開源就有資金、數據支持了。
沈抖:開源肯定是會長期存在的。隨著大模型越來越受關注,政府、企業都可能捐贈去支撐這方面的研究,促進整個市場教育。但它最后能產生多大的價值?我覺得它大概率不會成為主流,也不會形成完整閉環的商業模式。
傳統的軟件開發可以形成閉環。比如你寫了一段代碼或升級了一個功能,可以很快checkin(簽入),整個開源軟件的能力一下就提高了一層。但今天LLaMA發布完了以后,不管有多少人在用,它沒法checkin回去,數據放不回去、算力放不回去、能力也放不回去,形成不了閉環。
問:很多開源派認為,開源模型讀過萬億參數,雖然比不上閉源模型,但是也是很可用的了。就像模型本身雖然沒有985和211畢業的水平,但至少是個專科水平可以用來做更垂直的微調了。
沈抖:Foundation Model(基礎模型)到底要不要進步?如果說今天Foundation Model已經很好了,不用再改了,那沒有問題。但今天的情況是,Foundation Model只有60分,我們要爭取做到90分、95分的問題。
問:為什么要進步?很多企業的真實感受是,GPT3.0都已經能解決問題,那進步的意義是什么?
沈抖:這是一個很好的問題,我們內部也討論過。今天Foundation Model做到60分也能解決很大一部分問題,但它離完美地解決,差距還是很大的。而人性的需求是,但凡你能讓我一次解決的,分兩次絕對不干。
今天你在Foundation Model只有60分的基礎上,訓練出了85分。那之后Foundation Model達到85分,你是不是能得95分呢?人在這方面的追求是無極限的。
這個極限肯定是要繼續往上拉的。拿搜索舉例,20多年前的搜索就能用,那谷歌這20多年都在干嘛?你看似結束了,實際上沒有。
問:怎么看大模型接下來的競爭格局?
沈抖:今天市面上有非常多模型,但我認為它們很多都會迅速消失。
現在很多模型之所以還存在,是因為很多人還不知道它的好壞。反正誰也試不了,誰也用不了,一測排名還挺靠前。但隨著模型的放開,優劣更容易評判了。今天這些做大模型的,你給他三千萬個問題輸進去試試,估計一大半都得干趴下。
這會導致流量的逐步集中,頭部模型更容易形成規模效應,從而進一步分攤模型研發的成本。差距會進一步拉大。
問:淘汰賽會什么時候開始?
沈抖:不好說,畢竟大家融的錢可能還得花一段時間。對于大企業來講,燒還是燒得起的,但也要看它燒的價值何在。有一些企業是沖著反正自己的應用場景很多,這時候讓它去調別人家的大模型API肯定不干,所以一定會做一個自己的模型。好點、差點(無所謂),至少不用依賴外部。大企業做模型這件事還會持續一段時間。
問:未來大模型會不會成為所有應用的底座?這會誕生一個完全不同的開發、應用生態嗎?
沈抖:毫無疑問,大模型會成為一個新時代的操作系統,變成很多應用的底座。
一直以來,人和人、和機器打交道,都是用語言作為指令。但過去,機器不懂自然語言,我們就硬生生寫了一套程序語言讓它理解。現在大模型理解了自然語言,整個應用開發范式就發生了根本性的變化。開發變得由創意驅動,而不是由代碼能力驅動。
另外,大模型也有把系統串聯起來的能力。像現在插件的出現,也就是獨立完成某種能力、等待被調用的組件,大模型可以把插件組合起來完成一個特定的任務。這都會進一步改變開發范式。
問:如果大模型能打通所有插件解決問題,這是不是變相實現了互聯互通?
沈抖:其實依然沒有。實際上,這些APP現在也都存在于同一個手機上、同一個應用程序里,它照樣沒有實現互聯互通。將來在大模型基座上,美團接進來、滴滴接進來,但它們還是沒有互通的。
問:底層的問題沒有解決。
沈抖:對,互聯互通應該指的是數據打通,你的數據我可以訪問、我的數據你可以訪問。但在大模型底座下,我們只是愿意跟這個中樞對話,但我們插件彼此之間并沒有對話。
問:這種不互聯互通的情況,會不會導致開發者不能流暢地實現跨資源調度?這會是中國大模型開發生態的缺陷嗎?
沈抖:我覺得主要的原因是沒放開、流量規模沒起來。比如文心一言一下子有了3000多萬的流量,開發者一算可能1%是自己的,那也有30萬的訪問了,他就會決定來干。
問:在大模型時代,百度云怎么定義自己在生態里的位置?利益機制如何分配?
沈抖:以百度一家之力是絕對干不過來的。不是恐怕干不過來,是絕對干不過來。
首先,插件一定會是非常繁榮的生態,它和大模型之間是相輔相成的。插件要從大模型中獲取流量,大模型又需要插件能力的支持,就像今天假設手機上沒有微信、抖音,用戶可能都不用它了。
其次,在面向終端客戶的應用上,無論是私有云部署、還是通過千帆這樣的平臺級方案,最終一定需要生態伙伴完成最后一公里交付的問題,比如金蝶、用友、軟通動力等。它們有特別熟悉的客戶和業務流程,最終需求都會被它集成。
總結一下,一是開發生態的能力聚合、二是幫大模型做交付的合作伙伴、三是用大模型強化自身服務的客戶,這都是生態。
問:大模型的技術范式,給云計算帶來了哪些改變?
沈抖:技術發展的脈絡是越來越高級。換句話講,離底層越來越遠,越來越不需要關注細節,封裝越來越好,有大量的人在背后把這些活給干了。這本身也是云貢獻的價值。
早期的CPU云貢獻的價值,就是客戶不用自己買機器一個一個卡綁,它封裝得越來越好、可以在上邊直接用。隨著大模型時代到來,“AI加速芯片”GPU慢慢成為算力中心,算力增長速度遠遠超過CPU。這會加速我們從CPU云向GPU云的切換。
在GPU云的時代,最終我們會把云的能力進一步封裝,不讓底層暴露出來,形成更高級的交互形態,直接對接大模型的API。今天的云還是給工程師開發的,交互形態還不夠徹底,但未來底層的工程師會減少,更多人會往上層走。這是一個大幅的變化。
問:大模型會重塑云計算的市場格局嗎?如果會,什么時候能看到信號?
沈抖:我喜歡這個問題。如果沒有大模型的話,百度的云會打得非常吃力。我們過去一直在喊“深入行業、聚焦場景、云智一體、AI普惠”,百度智能云想做的就是把AI放到整個ToB的服務里,讓它成為一個增長點。
但過去,傳統的AI是非常碎片化的。它要針對一個問題生成一個能力,再解決這個問題,通用性比較差。這就導致它都是項目制,很難規模化,毛利也低。
而生成式AI出來以后,我們看到它的通用性非常好、一下子能解決很多問題,在應用層往下基本都是統一的,哪怕需要微調、需要插件,都是標準化的動作。這跟之前非常碎片化的AI應用完全不一樣。這本身就是云業務的巨大變化,所謂的IaaS變成了MaaS。
問:過去中國的AI公司都是要落項目,非常苦。沒法像現在這樣,通過標準化的產品解決問題。
沈抖:我們那時候跟Robin(注:百度創始人、董事長兼CEO李彥宏)討論云戰略,他也要求我們必須得標準化、規模化,不然體現不出來百度作為一個技術公司的價值。
問:所以接下來長期都會是標準化和規模化?
沈抖:大模型在早期有很大的不確定性,今天,很多客戶對大模型的能力上限、邊界、成本、交付、需求方式都還沒有統一認知。短時間內,我們還不能保證客戶都到公有云上來,肯定還是先通過項目制的方式去做。
但即使是這樣的項目制,也跟以前的項目制不一樣。比如我給你私有化部署了模型,它更像是Windows或者是office,先是95版,接著是97版,又來了2000版,你得不斷的升級。看似我給你一個光盤裝到家里了,實際上你得不斷地訂閱。這跟原來搭建的也不一樣。
問:但你們的財務已經出現了改善。今年一季度百度智能云首次實現季度盈利,你們提到原因就是云服務的標準化,實現了規模復用、降低了成本。
沈抖:是的。在單純項目制、或者項目制占比比較高的情況下,交付后毛利太低了。
問:作為百度最高決策層的一員,你平常最關心和焦慮的問題是什么?經常要跟團隊討論的問題是什么?
沈抖:在產品形態上,Robin有一個要求,一定要用AI原生思維來重構所有的產品。是重構,而不是接入。
在技術上,我們思考的是今天生成式AI的能力還能往上蹦多高。文心一言現在的評測結果還不錯,但它還遠遠沒到人類語言、或者優秀人類語言理解的上限。怎么能繼續快速拉升這個能力,肯定是我們第一位思考的問題。
接著是行業應用上,模型怎么能真正用起來、在哪些場景能用起來、用起來的門檻有多高、邊界有多寬、怎么能提高它的效率、怎么激發大家想到更好的用法……這都是我們要不斷思考的東西。
問:這些都是比較偏軟的層面,偏硬的層面呢?
沈抖:現在算力集群從千卡到萬卡,百度是中國真正在萬卡級別上跑單一任務的公司。
在萬卡集群下,組織、效率、保障這些真正底層的工作大家看不見,但是它們極其重要。比如,我們要提高底層硬件和軟硬一體的訓練、推理效率。這都是蠻關鍵的東西。
問:你在百度這么多年一直都負責搜索、廣告業務,直到去年才主掌智能云,馬上就遇到了大模型的歷史機遇。會覺得是一種幸運嗎?你的感受是怎樣的?
沈抖:沒那么夸張,但我確實很興奮、很幸運能去做這么一件事。
去年接手的時候,我就有(把云服務)規模化、標準化的思路。但因為AI能力太碎片化了,做起來非常難。當時我就使勁在想,有什么東西是既需要AI能力、又需要AI算力、同時還能讓很多人同時去用的?找半天找不著。
然后,大模型就出現了。一下子就感覺順手了。
問:你個人學的是人工智能方向,大模型是不是也跟你更匹配?
沈抖:這跟我研究生做的事情很相似。雖然我一直學計算機的,但我做得偏軟件的多一些,一直在人工智能這條線上做。
當時接了云(偏底層硬件)以后,我真的又把操作系統、計算機組成原理的書拿來看了一遍。如果說真是CPU時代的IaaS、網絡組件、存儲計算那套東西,我覺得還是有點難的。
但大模型出來以后,我發現那些東西被封裝在下面了,我現在主要研究大模型就可以,比如讀論文、自己用Python把千帆上的API調用一遍等等。我覺得順手多了。
問:接下來,你對百度智能云的發展增速有怎樣的預期?
沈抖:百度智能云現在就接近兩百億的盤子,還相對比較小。在大模型的加持下,我們的客戶需求變得很旺盛,現在都忙不過來。不過要想真正讓用戶用起來、做好交付,還需要一個過程。
問:四季度會迎來小爆發嗎?
沈抖:有人估計四季度會是爆發的。需求確實開始起來了,但我覺得爆發的話,可能要到明年。
問:你怎么評價自己的運氣?
沈抖:我覺得這是百度的運氣。百度做AI做了這么多年,下了這么大功夫,如果大模型不來的話,云的商業化路徑確實更難一些,也很辛苦。這正好說明有Vision的公司,最后運氣也不會太差吧。
