ITBear旗下自媒體矩陣:

阿里云通義千問Qwen 2.5-Max:性能超越Deepseek V3,領(lǐng)跑超大規(guī)模MoE模型?

   時(shí)間:2025-01-29 03:38:02 來源:ITBEAR編輯:快訊團(tuán)隊(duì) 發(fā)表評(píng)論無障礙通道

近日,正值新春佳節(jié)之際,阿里云震撼發(fā)布了其最新的通義千問Qwen 2.5-Max超大規(guī)模MoE模型。用戶現(xiàn)在可以通過API接口輕松訪問該模型,或直接登錄Qwen Chat平臺(tái),享受與模型對(duì)話、使用artifacts以及搜索等一系列功能。

據(jù)了解,通義千問Qwen 2.5-Max采用了超過20萬億token的龐大預(yù)訓(xùn)練數(shù)據(jù),并結(jié)合了精細(xì)的后訓(xùn)練方案,以確保其卓越的性能。

在性能展示方面,阿里云將通義千問Qwen 2.5-Max與業(yè)界知名的指令模型進(jìn)行了對(duì)比,包括DeepSeek V3、GPT-4o和Claude-3.5-Sonnet。結(jié)果顯示,Qwen 2.5-Max在Arena-Hard、LiveBench、LiveCodeBench和GPQA-Diamond等多項(xiàng)基準(zhǔn)測(cè)試中,均超越了DeepSeek V3,并且在MMLU-Pro等其他評(píng)估中也展現(xiàn)出了強(qiáng)大的競(jìng)爭(zhēng)力。

在基座模型的對(duì)比中,由于無法獲取GPT-4o和Claude-3.5-Sonnet等閉源模型的基座信息,阿里云選擇了與當(dāng)前領(lǐng)先的開源MoE模型DeepSeek V3、最大的開源稠密模型Llama-3.1-405B,以及同樣位列開源稠密模型前列的Qwen2.5-72B進(jìn)行對(duì)比。結(jié)果顯示,Qwen2.5-Max的基座模型在大多數(shù)基準(zhǔn)測(cè)試中均展現(xiàn)出了顯著的優(yōu)勢(shì)。

這一系列的對(duì)比測(cè)試充分證明了通義千問Qwen 2.5-Max的強(qiáng)大實(shí)力。隨著后訓(xùn)練技術(shù)的不斷突破,我們有理由相信,未來的Qwen2.5-Max將會(huì)達(dá)到更加令人矚目的水平,為用戶帶來更加智能、高效的體驗(yàn)。

舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動(dòng)資訊  |  爭(zhēng)議稿件處理  |  English Version