ITBear旗下自媒體矩陣:

微軟開(kāi)源bitnet.cpp:本地運(yùn)行千億參數(shù)AI模型,無(wú)需GPU?

   時(shí)間:2024-10-19 15:19:06 來(lái)源:ITBEAR編輯:快訊團(tuán)隊(duì) 發(fā)表評(píng)論無(wú)障礙通道

【ITBEAR】微軟公司近日宣布了一項(xiàng)重大開(kāi)源成果——bitnet.cpp,這一創(chuàng)新框架專(zhuān)為1-bit大語(yǔ)言模型(LLM)設(shè)計(jì),旨在實(shí)現(xiàn)超高效推理。通過(guò)bitnet.cpp,用戶(hù)無(wú)需依賴(lài)GPU,即可在本地設(shè)備上流暢運(yùn)行規(guī)模達(dá)1000億參數(shù)的語(yǔ)言模型。

bitnet.cpp不僅帶來(lái)了6.17倍的速度提升,還顯著降低了能耗,降幅高達(dá)82.2%。這一突破解決了傳統(tǒng)大語(yǔ)言模型對(duì)GPU和電力的高需求問(wèn)題,使得小型企業(yè)和個(gè)人用戶(hù)也能以較低成本享受AI技術(shù)。

該框架支持1-bit LLMs的高效計(jì)算,并優(yōu)化了內(nèi)核以最大化CPU推理性能。目前,bitnet.cpp已支持ARM和x86 CPU,未來(lái)還計(jì)劃擴(kuò)展至NPU、GPU和移動(dòng)設(shè)備。

根據(jù)測(cè)試結(jié)果,bitnet.cpp在ARM CPU上的加速比為1.37x至5.07x,x86 CPU上則為2.37x至6.17x,能耗減少55.4%至82.2%。

bitnet.cpp的推出有望重塑LLMs的計(jì)算范式,減少對(duì)硬件的依賴(lài),為本地LLMs的發(fā)展鋪平道路。同時(shí),它還能增強(qiáng)隱私保護(hù),降低數(shù)據(jù)發(fā)送至外部服務(wù)器的需求。微軟的“1-bit AI Infra”計(jì)劃中,bitnet.cpp扮演著舉足輕重的角色。

舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類(lèi)資訊
全站最新
熱門(mén)內(nèi)容
網(wǎng)站首頁(yè)  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開(kāi)放轉(zhuǎn)載  |  滾動(dòng)資訊  |  爭(zhēng)議稿件處理  |  English Version