2025年初,憑借在DeepSeekV3及R1爆火前后的迅速反應,硅基流動趕在2月1日上線了基于國產芯片服務的前述兩款模型,賺得了市場一大波關注及用戶。
彼時,硅基流動的更多目標用戶指向C端(消費者端),認為企業端用戶的大模型部署場景和需求還不甚明朗。近半年時間過去,公司透過已注冊的700萬用戶、1萬余家企業用戶觀察到了變化。
硅基流動聯合創始人胡健告訴界面新聞記者,團隊發現多數企業從最開始的嘗試心態逐漸變為發現了更多可落地的場景(例如智能辦公、能源領域系統級優化等),并且走到了可以批量部署的階段。
在這個時間點,公司正式推出了企業級MaaS(模型即服務)平臺,涉及異構算力納管、模型訓練、推理部署等一系列環節。平臺預集成了一批主流開源與閉源大模型,提供多種算力卡推理加速包,新模型可在1-3天完成適配并同步至企業私有環境。
自AI大模型成為創業風口以來,在模型層與應用層的熱點接續中,一批提供MaaS平臺的中間層企業找準定位成長起來,意圖成為這片領域穩固的基礎設施。硅基流動正是其中一家。
在此之前,企業部署大模型的難題已經得到了總結,模型篩選成本高、適配周期長、性能成本高、模型升級導致的作業不順暢等等。硅基流動的核心目標,就是通過公有云的方式加快對模型和用戶需求的感知,同時彌補國產芯片軟件生態,提升算力運營效率,支持企業對大模型能力的“開箱即用”。
面對同樣提供MaaS服務的云廠商們,硅基流動繞不開的是差異化競爭話題。
異構算力是其中一個重要維度。胡健提到,現有企業客戶中國企占比相對較高,通常掌握大量國產芯片,模型部署往往要建立在異構算力基礎上,而國產芯片從能用到好用還存在優化空間。因此,針對國產芯片進行模型適配與推理加速,以達到英偉達等海外廠商同等規格的GPU表現,成為MaaS平臺的主要任務之一。
硅基流動為此構建了閉源的大模型推理引擎,覆蓋英偉達、AMD、昇騰、沐曦、摩爾等主流芯片廠商,其能力尤為體現在新模型的適配速度上。
例如,國產卡從前被詬病對新模型適配周期較長,從數周到數月不等。對此,胡健表示,如果是基于硅基流動的國產芯片公有云,一個72B的稠密模型可以做到當天上線,MoE架構模型最快可以在1-2天內上線。
對模型層和算力層的理解,以及對其產品的洞察,可能很大程度上決定了中間層公司的先發優勢。胡健回憶稱,DeepSeekV3和R1上線之前,對方團隊曾建議配備40臺H100機器,出于成本考量,硅基流動決定與華為昇騰合作,及時為市場提供了適配國產芯片的V3及R1模型。
回頭看,這個決策無比正確且重要。“我們最開始的時候用戶基數可能不到50萬,一個月不到的時間漲到了500多萬,翻了10倍左右。”胡健說。但與R1的爆火難以復制是一樣的,這樣的時機在業內也很難再出現了。
當前更常規的做法還是采取市場思維,在新模型出現后及時測評,如果達到要求,先快速適配一兩臺機器驗證流量,隨著規模的擴大再做彈性跟進。“但其實市面上永遠是二八定律,百分之二三十的模型占據了百分之八十的流量。”
在商業模式上,MaaS平臺還有需要摸索的路。目前,項目制收費和token消耗計費是兩大主流付費模式,但前者存在一定規模化的限制,而后者則要考慮token價格會越來越便宜。胡健推測,參考電力模式,未來token費用或許會根據不同行業、不同應用出現類似工業用電、農業用電的分級收費制度。在此基礎上,他認為市場還在不斷加速擴張。
IDC數據顯示,2024年12月,中國公有云大模型日均tokens調用量9522億,是2024年6月日均調用量963億次的近10倍。隨著模型層的推陳出新,以及應用層的新產品不斷涌現,行業普遍認為AI算力的消耗長期仍呈現大幅上升趨勢。
“在這么大增長的情況之下,我們一個小廠,有自己的使命,也有自己的生存空間。”胡健認為,市場遠未到競爭的態勢,而是屬于大模型應用服務的偏中早期階段。
并且,隨著模型和應用走向多元化,中間層公司也有采取縱向發展的機會,就某一個領域的具體場景將模型、功能以及行業特性綁定更深,最終形成差異化的生存路徑。