11月20日消息,最新的Qwen2.5-Turbo已在阿里云百煉上線,該模型支持100萬超長(zhǎng)上下文,相當(dāng)于100萬個(gè)英文單詞或150萬個(gè)漢字,在多個(gè)長(zhǎng)文本評(píng)測(cè)集上的性能表現(xiàn)超越GPT-4。即日起,所有用戶可在阿里云百煉調(diào)用Qwen2.5-Turbo API,百萬tokens僅需0.3元。
全新的Qwen2.5-Turbo在1M長(zhǎng)度的超長(zhǎng)文本檢索(Passkey Retrieval)任務(wù)中的準(zhǔn)確率可達(dá)到100%,在長(zhǎng)文本評(píng)測(cè)集RULER上獲得93.1分,超越GPT-4;在LV-eval、LongBench-Chat等更加接近真實(shí)場(chǎng)景的長(zhǎng)文本任務(wù)中,Qwen2.5-Turbo在多數(shù)維度超越了GPT-4o-mini;此外,在MMU、LiveBench等短文本基準(zhǔn)上Qwen2.5-Turbo的表現(xiàn)也非常優(yōu)秀,在大部分任務(wù)上的表現(xiàn)顯著超越之前上下文長(zhǎng)度為1M tokens的開源模型。
Qwen2.5-Turbo在長(zhǎng)文本、短文本任務(wù)評(píng)測(cè)集上均表現(xiàn)優(yōu)秀
在推理速度方面,通義千問團(tuán)隊(duì)利用稀疏注意力機(jī)制將注意力部分的計(jì)算量壓縮了約12.5倍,將處理1M tokens上下文時(shí)的首字返回時(shí)間從4.9分鐘降低到68秒,實(shí)現(xiàn)了4.3倍的速度提升。
Qwen2.5-Turbo推理速度可提升4.3倍
Qwen2.5-Turbo可應(yīng)用于長(zhǎng)篇小說深入理解、倉庫級(jí)別代碼助手、多篇論文閱讀等場(chǎng)景,可一次性處理10本長(zhǎng)篇小說,150小時(shí)的演講稿,3萬行代碼。針對(duì)該模型,阿里云百煉免費(fèi)為用戶贈(zèng)送1000萬tokens額度。
該團(tuán)隊(duì)表示,長(zhǎng)文本任務(wù)處理依然存在諸多挑戰(zhàn),未來將進(jìn)一步探索長(zhǎng)序列人類偏好對(duì)齊,優(yōu)化推理效率以減少運(yùn)算時(shí)間,并繼續(xù)研發(fā)更大、更強(qiáng)的長(zhǎng)文本模型。
據(jù)介紹,阿里云百煉已上線Qwen、Llama、Flux等超200款國(guó)內(nèi)外主流開源和閉源大模型,用戶可選擇直接調(diào)用、訓(xùn)練微調(diào)或打造RAG應(yīng)用。目前,一汽、金山、哈啰集團(tuán)、國(guó)家天文臺(tái)等超30萬企業(yè)和機(jī)構(gòu)在使用阿里云百煉。