ITBear旗下自媒體矩陣:

阿里云開(kāi)源Qwen2.5-Coder模型,編程新手也能輕松開(kāi)發(fā)應(yīng)用!

   時(shí)間:2024-11-12 21:22:00 來(lái)源:ITBEAR作者:楊凌霄編輯:瑞雪 發(fā)表評(píng)論無(wú)障礙通道

【ITBEAR】阿里云通義大模型團(tuán)隊(duì)近日宣布,已開(kāi)源通義千問(wèn)代碼模型全系列,涵蓋6種不同尺寸的Qwen2.5-Coder模型,這標(biāo)志著該團(tuán)隊(duì)在開(kāi)源領(lǐng)域邁出了重要步伐。

此次開(kāi)源的Qwen2.5-Coder系列包括從0.5B到32B的六個(gè)尺寸,且每個(gè)尺寸都提供了Base和Instruct兩種模型供開(kāi)發(fā)者選擇。其中,Base模型適合進(jìn)行微調(diào),而Instruct模型則可供開(kāi)發(fā)者直接投入使用,大大提升了使用的便捷性。

除了3B模型采用Research Only許可外,其余模型均采用了Apache 2.0許可證,這一舉措無(wú)疑為開(kāi)發(fā)者提供了更大的使用靈活性和便利。

在性能方面,32B尺寸的旗艦?zāi)P蚎wen2.5-Coder-32B-Instruct在多個(gè)基準(zhǔn)評(píng)測(cè)中脫穎而出,取得了令人矚目的開(kāi)源最佳成績(jī),更被譽(yù)為全球最強(qiáng)開(kāi)源代碼模型。該模型在代碼生成等核心能力上,甚至超越了知名的閉源模型GPT-4o。

據(jù)悉,Qwen2.5-Coder-32B-Instruct在evalPlus、LiveCodeBench、BigCodeBench等主流的代碼生成基準(zhǔn)上,均刷新了開(kāi)源模型的得分紀(jì)錄。同時(shí),在九個(gè)基準(zhǔn)評(píng)測(cè)中,該模型的表現(xiàn)均優(yōu)于GPT-4o,充分展示了其在代碼修復(fù)以及多編程語(yǔ)言支持方面的強(qiáng)大實(shí)力。

此次系列模型的推出,預(yù)計(jì)將極大提升AI編程的性能和效率,使得即便是編程初學(xué)者,也能輕松生成網(wǎng)站、數(shù)據(jù)圖表、簡(jiǎn)歷、游戲等各類(lèi)應(yīng)用。這無(wú)疑將進(jìn)一步推動(dòng)開(kāi)源大模型在編程領(lǐng)域的廣泛應(yīng)用和深入發(fā)展。

舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類(lèi)資訊
全站最新
熱門(mén)內(nèi)容
網(wǎng)站首頁(yè)  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開(kāi)放轉(zhuǎn)載  |  滾動(dòng)資訊  |  爭(zhēng)議稿件處理  |  English Version