ITBear旗下自媒體矩陣:

Gitee AI與沐曦?cái)y手首發(fā)DeepSeek R1系列千問蒸餾模型,國(guó)產(chǎn)GPU強(qiáng)勢(shì)助力

   時(shí)間:2025-02-05 04:00:43 來源:ITBEAR編輯:快訊團(tuán)隊(duì) 發(fā)表評(píng)論無障礙通道

近日,Gitee AI 正式推出了四個(gè)輕量級(jí)版本的 DeepSeek 模型,分別為 DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B 和 DeepSeek-R1-Distill-Qwen-32B。尤為引人注目的是,這些模型均部署在國(guó)產(chǎn)沐曦曦云 GPU 上,標(biāo)志著我國(guó)在人工智能領(lǐng)域的自主研發(fā)能力又邁出了堅(jiān)實(shí)的一步。

相較于全尺寸的 DeepSeek 模型,這些輕量級(jí)版本的蒸餾模型在保持高性能的同時(shí),顯著降低了資源占用和部署成本,更適合企業(yè)內(nèi)部的應(yīng)用和部署需求。這一舉措無疑將推動(dòng)人工智能技術(shù)在更多行業(yè)和企業(yè)中的普及和應(yīng)用。

本次 Gitee AI 的 Deepseek R1 模型與沐曦曦云 GPU 的結(jié)合,不僅展現(xiàn)了從芯片到平臺(tái)、從算力到模型的全方位國(guó)產(chǎn)研發(fā)實(shí)力,更為我國(guó)人工智能產(chǎn)業(yè)的發(fā)展注入了新的活力。DeepSeek R1 作為一款擁有 6710 億個(gè)參數(shù)的大型混合專家(MoE)模型,其支持的大輸入上下文長(zhǎng)度達(dá)到了 128000 個(gè) Token,性能卓越。

而此次部署在沐曦曦云 GPU 上的四個(gè) DeepSeek R1 蒸餾模型,更是以較小的參數(shù)量實(shí)現(xiàn)了與大參數(shù)模型相當(dāng)?shù)男阅鼙憩F(xiàn),這無疑將進(jìn)一步提升人工智能技術(shù)的效率和實(shí)用性。

為了讓更多開發(fā)者能夠享受到這一技術(shù)成果,Gitee AI 目前已將 DeepSeek-R1-Distill 系列模型面向全體開發(fā)者免費(fèi)開放。這一舉措無疑將激發(fā)更多開發(fā)者的創(chuàng)新熱情,推動(dòng)人工智能技術(shù)在更廣泛的領(lǐng)域得到應(yīng)用和發(fā)展。

舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動(dòng)資訊  |  爭(zhēng)議稿件處理  |  English Version