近日,Gitee AI 正式推出了四個(gè)輕量級(jí)版本的 DeepSeek 模型,分別為 DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B 和 DeepSeek-R1-Distill-Qwen-32B。尤為引人注目的是,這些模型均部署在國(guó)產(chǎn)沐曦曦云 GPU 上,標(biāo)志著我國(guó)在人工智能領(lǐng)域的自主研發(fā)能力又邁出了堅(jiān)實(shí)的一步。
相較于全尺寸的 DeepSeek 模型,這些輕量級(jí)版本的蒸餾模型在保持高性能的同時(shí),顯著降低了資源占用和部署成本,更適合企業(yè)內(nèi)部的應(yīng)用和部署需求。這一舉措無疑將推動(dòng)人工智能技術(shù)在更多行業(yè)和企業(yè)中的普及和應(yīng)用。
本次 Gitee AI 的 Deepseek R1 模型與沐曦曦云 GPU 的結(jié)合,不僅展現(xiàn)了從芯片到平臺(tái)、從算力到模型的全方位國(guó)產(chǎn)研發(fā)實(shí)力,更為我國(guó)人工智能產(chǎn)業(yè)的發(fā)展注入了新的活力。DeepSeek R1 作為一款擁有 6710 億個(gè)參數(shù)的大型混合專家(MoE)模型,其支持的大輸入上下文長(zhǎng)度達(dá)到了 128000 個(gè) Token,性能卓越。
而此次部署在沐曦曦云 GPU 上的四個(gè) DeepSeek R1 蒸餾模型,更是以較小的參數(shù)量實(shí)現(xiàn)了與大參數(shù)模型相當(dāng)?shù)男阅鼙憩F(xiàn),這無疑將進(jìn)一步提升人工智能技術(shù)的效率和實(shí)用性。
為了讓更多開發(fā)者能夠享受到這一技術(shù)成果,Gitee AI 目前已將 DeepSeek-R1-Distill 系列模型面向全體開發(fā)者免費(fèi)開放。這一舉措無疑將激發(fā)更多開發(fā)者的創(chuàng)新熱情,推動(dòng)人工智能技術(shù)在更廣泛的領(lǐng)域得到應(yīng)用和發(fā)展。