ITBear旗下自媒體矩陣:

火山引擎譚待回應百度沈抖:大模型降價靠創(chuàng)新,豆包毛利不俗

   時間:2025-02-13 17:36:53 來源:ITBEAR編輯:快訊團隊 發(fā)表評論無障礙通道

在科技行業(yè)的激烈競爭中,關于大模型價格戰(zhàn)與技術創(chuàng)新的討論再次成為焦點。近日,火山引擎總裁譚待針對百度智能云事業(yè)群總裁沈抖的言論做出了正面回應。

據(jù)悉,沈抖在內部會議上指出,國內大模型市場去年因“惡意”價格戰(zhàn),導致行業(yè)整體創(chuàng)收遠落后于國外。他特別提到,面對新興AI產品DeepSeek的強勁勢頭,字節(jié)跳動的豆包AI產品因其高昂的訓練和投放成本,首當其沖受到影響。

針對這一觀點,譚待在個人社交媒體上迅速作出回應。他強調,大模型的降價是基于技術創(chuàng)新實現(xiàn)的,而非所謂的“惡意”競爭。譚待呼吁業(yè)界應專注于技術基本功和創(chuàng)新,減少無端猜測。

譚待進一步指出,豆包1.5Pro模型在預訓練和推理成本上均低于DeepSeek V3,同時也遠低于國內其他模型。在當前價格下,豆包擁有可觀的毛利率。他解釋說:“國內外廠商都在通過技術創(chuàng)新降低模型價格。我們只是實現(xiàn)了Gemini 2.0 Flash的價格水平,這是技術進步的自然結果?!?/p>

數(shù)據(jù)顯示,豆包大模型的調用量在過去一年內實現(xiàn)了快速增長。去年12月,日均tokens使用量已超過4萬億,與5月首次發(fā)布時相比增長了33倍。這一增長不僅驗證了豆包的市場需求,也彰顯了其在技術創(chuàng)新上的努力。

譚待還透露,豆包大模型團隊近期公布了全新的稀疏模型架構UltraMem。這一架構在推理速度上較傳統(tǒng)的MoE(混合專家模型)架構提升了2-6倍,推理成本最高可降低83%。這一技術創(chuàng)新無疑為豆包在市場上的競爭力增添了新的籌碼。

值得注意的是,火山引擎近期宣布接入了DeepSeek的模型。這一舉動不僅展示了火山引擎在技術創(chuàng)新上的開放態(tài)度,也預示著未來大模型市場的競爭格局將更加多元化。

在技術創(chuàng)新和市場需求的雙重驅動下,大模型市場的競爭愈發(fā)激烈。譚待的回應不僅是對沈抖言論的直接回應,更是對業(yè)界關于技術創(chuàng)新和價格戰(zhàn)的深入思考。隨著技術的不斷進步和市場的日益成熟,大模型市場的未來無疑將更加精彩。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內容
網(wǎng)站首頁  |  關于我們  |  聯(lián)系方式  |  版權聲明  |  RSS訂閱  |  開放轉載  |  滾動資訊  |  爭議稿件處理  |  English Version