ITBear旗下自媒體矩陣:

譚待回應(yīng)百度沈抖:聚焦創(chuàng)新與基本功,國內(nèi)AI模型成本效益引關(guān)注

   時間:2025-02-13 17:36:21 來源:ITBEAR編輯:快訊團隊 發(fā)表評論無障礙通道

近日,百度智能云事業(yè)群掌舵人沈抖,在一場內(nèi)部全員大會上直言不諱地指出,國內(nèi)大型語言模型領(lǐng)域去年爆發(fā)的一場“價格戰(zhàn)風(fēng)波”,嚴重拖累了整個行業(yè)的創(chuàng)收能力,使之與國外同行相比,存在著顯著的差距。

此言一出,迅速引起了業(yè)界的廣泛關(guān)注?;鹕揭婵偛米T待隨即以一種“隔空對話”的方式,表達了自己的看法。他認為,無論是國內(nèi)還是國外的廠商,都在不遺余力地通過技術(shù)創(chuàng)新來降低模型的成本,進而推動價格的下降。他呼吁業(yè)界應(yīng)效仿DeepSeek,專注于基礎(chǔ)能力的建設(shè)和創(chuàng)新能力的提升,避免不必要的猜測和指責(zé),將注意力更多地放在內(nèi)部因素上。

譚待進一步指出,他們推出的豆包1.5Pro模型,在預(yù)訓(xùn)練和推理兩個環(huán)節(jié)的成本上,均低于DeepSeek的V3版本,更是大幅度低于國內(nèi)其他同類模型。在當(dāng)前的定價策略下,豆包1.5Pro依然能夠保持可觀的利潤空間,這無疑是對其成本控制能力和技術(shù)創(chuàng)新實力的有力證明。

譚待的這番言論,無疑為這場關(guān)于大型語言模型價格戰(zhàn)的討論,增添了一個新的視角。他強調(diào),真正的競爭力來自于內(nèi)部的技術(shù)創(chuàng)新和成本控制,而非簡單的價格競爭。這一觀點,或許能夠為未來國內(nèi)大型語言模型領(lǐng)域的發(fā)展,提供一些有益的啟示。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動資訊  |  爭議稿件處理  |  English Version