ITBear旗下自媒體矩陣:

豆包大模型技術(shù)飛躍,揭秘300萬字長文本處理能力,挑戰(zhàn)GPT-4o

   時間:2024-12-30 22:17:25 來源:ITBEAR編輯:快訊團隊 發(fā)表評論無障礙通道

字節(jié)跳動旗下的豆包大模型近期宣布了在技術(shù)領(lǐng)域的顯著進步,特別是在通用語言、視頻生成、語音對話及視覺理解等方面,已經(jīng)成功躋身國際前沿梯隊。這一成就,是在豆包大模型自今年5月15日首次亮相后的短短七個月內(nèi)取得的。

據(jù)悉,截至2024年底,豆包大模型推出了最新版本Doubao-pro-1215,該版本在綜合能力上相較于5月時提升了32%,并已全面與GPT-4o對齊。尤其在處理數(shù)學問題和專業(yè)知識等復雜場景時,Doubao-pro-1215的表現(xiàn)甚至優(yōu)于GPT-4o。更為引人注目的是,Doubao-pro-1215的推理服務價格僅為GPT-4o的八分之一,這無疑為其在市場上的競爭力增添了重要砝碼。

豆包大模型在技術(shù)上的突破,得益于其在模型稀疏度提升、強化學習引入等方面的海量數(shù)據(jù)優(yōu)化及模型架構(gòu)創(chuàng)新。這些努力使得Doubao-pro-1215在理解精度和生成質(zhì)量上實現(xiàn)了大幅提升,為用戶帶來了更加準確和流暢的體驗。

豆包大模型還首次展示了其300萬字窗口的長文本處理能力。這一能力使得豆包能夠一次性輕松閱讀上百篇學術(shù)報告,且每百萬tokens的處理延遲僅為15秒。這一成就的背后,是STRING等上下文關(guān)聯(lián)數(shù)據(jù)算法的應用,以及稀疏化及分布式方案的實施,它們共同提升了LLM利用海量外部知識的能力,并將時延降至了十秒級。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容