ITBear旗下自媒體矩陣:

阿里云百煉上線Qwen2.5-Turbo模型,可支持100萬超長(zhǎng)上下文

   時(shí)間:2024-11-20 15:47:10 來源:互聯(lián)網(wǎng)編輯:茹茹 發(fā)表評(píng)論無障礙通道

11月20日消息,最新的Qwen2.5-Turbo已在阿里云百煉上線,該模型支持100萬超長(zhǎng)上下文,相當(dāng)于100萬個(gè)英文單詞或150萬個(gè)漢字,在多個(gè)長(zhǎng)文本評(píng)測(cè)集上的性能表現(xiàn)超越GPT-4。即日起,所有用戶可在阿里云百煉調(diào)用Qwen2.5-Turbo API,百萬tokens僅需0.3元。

全新的Qwen2.5-Turbo在1M長(zhǎng)度的超長(zhǎng)文本檢索(Passkey Retrieval)任務(wù)中的準(zhǔn)確率可達(dá)到100%,在長(zhǎng)文本評(píng)測(cè)集RULER上獲得93.1分,超越GPT-4;在LV-eval、LongBench-Chat等更加接近真實(shí)場(chǎng)景的長(zhǎng)文本任務(wù)中,Qwen2.5-Turbo在多數(shù)維度超越了GPT-4o-mini;此外,在MMU、LiveBench等短文本基準(zhǔn)上Qwen2.5-Turbo的表現(xiàn)也非常優(yōu)秀,在大部分任務(wù)上的表現(xiàn)顯著超越之前上下文長(zhǎng)度為1M tokens的開源模型。

圖片
圖片

Qwen2.5-Turbo在長(zhǎng)文本、短文本任務(wù)評(píng)測(cè)集上均表現(xiàn)優(yōu)秀

在推理速度方面,通義千問團(tuán)隊(duì)利用稀疏注意力機(jī)制將注意力部分的計(jì)算量壓縮了約12.5倍,將處理1M tokens上下文時(shí)的首字返回時(shí)間從4.9分鐘降低到68秒,實(shí)現(xiàn)了4.3倍的速度提升。

Qwen2.5-Turbo推理速度可提升4.3倍

Qwen2.5-Turbo可應(yīng)用于長(zhǎng)篇小說深入理解、倉庫級(jí)別代碼助手、多篇論文閱讀等場(chǎng)景,可一次性處理10本長(zhǎng)篇小說,150小時(shí)的演講稿,3萬行代碼。針對(duì)該模型,阿里云百煉免費(fèi)為用戶贈(zèng)送1000萬tokens額度。

該團(tuán)隊(duì)表示,長(zhǎng)文本任務(wù)處理依然存在諸多挑戰(zhàn),未來將進(jìn)一步探索長(zhǎng)序列人類偏好對(duì)齊,優(yōu)化推理效率以減少運(yùn)算時(shí)間,并繼續(xù)研發(fā)更大、更強(qiáng)的長(zhǎng)文本模型。

據(jù)介紹,阿里云百煉已上線Qwen、Llama、Flux等超200款國(guó)內(nèi)外主流開源和閉源大模型,用戶可選擇直接調(diào)用、訓(xùn)練微調(diào)或打造RAG應(yīng)用。目前,一汽、金山、哈啰集團(tuán)、國(guó)家天文臺(tái)等超30萬企業(yè)和機(jī)構(gòu)在使用阿里云百煉。

舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動(dòng)資訊  |  爭(zhēng)議稿件處理  |  English Version