【ITBEAR】阿里云通義大模型團(tuán)隊(duì)近日宣布,已開(kāi)源通義千問(wèn)代碼模型全系列,涵蓋6種不同尺寸的Qwen2.5-Coder模型,這標(biāo)志著該團(tuán)隊(duì)在開(kāi)源領(lǐng)域邁出了重要步伐。
此次開(kāi)源的Qwen2.5-Coder系列包括從0.5B到32B的六個(gè)尺寸,且每個(gè)尺寸都提供了Base和Instruct兩種模型供開(kāi)發(fā)者選擇。其中,Base模型適合進(jìn)行微調(diào),而Instruct模型則可供開(kāi)發(fā)者直接投入使用,大大提升了使用的便捷性。
除了3B模型采用Research Only許可外,其余模型均采用了Apache 2.0許可證,這一舉措無(wú)疑為開(kāi)發(fā)者提供了更大的使用靈活性和便利。
在性能方面,32B尺寸的旗艦?zāi)P蚎wen2.5-Coder-32B-Instruct在多個(gè)基準(zhǔn)評(píng)測(cè)中脫穎而出,取得了令人矚目的開(kāi)源最佳成績(jī),更被譽(yù)為全球最強(qiáng)開(kāi)源代碼模型。該模型在代碼生成等核心能力上,甚至超越了知名的閉源模型GPT-4o。
據(jù)悉,Qwen2.5-Coder-32B-Instruct在evalPlus、LiveCodeBench、BigCodeBench等主流的代碼生成基準(zhǔn)上,均刷新了開(kāi)源模型的得分紀(jì)錄。同時(shí),在九個(gè)基準(zhǔn)評(píng)測(cè)中,該模型的表現(xiàn)均優(yōu)于GPT-4o,充分展示了其在代碼修復(fù)以及多編程語(yǔ)言支持方面的強(qiáng)大實(shí)力。
此次系列模型的推出,預(yù)計(jì)將極大提升AI編程的性能和效率,使得即便是編程初學(xué)者,也能輕松生成網(wǎng)站、數(shù)據(jù)圖表、簡(jiǎn)歷、游戲等各類(lèi)應(yīng)用。這無(wú)疑將進(jìn)一步推動(dòng)開(kāi)源大模型在編程領(lǐng)域的廣泛應(yīng)用和深入發(fā)展。