ITBear旗下自媒體矩陣:

Hugging Face與英偉達等推出ModernBERT,能否超越BERT成新寵?

   時間:2024-12-29 16:12:54 來源:ITBEAR編輯:快訊團隊 發(fā)表評論無障礙通道

近期,Hugging Face攜手英偉達及約翰霍普金斯大學(xué)的研究人員,共同推出了BERT模型的全新升級版本——ModernBERT。這一新版本不僅在效率上有所提升,更突破了原有模型在處理長文本上的限制,能夠支持高達8192個Token的上下文處理。

自2018年問世以來,BERT模型一直是自然語言處理領(lǐng)域的熱門之選,其在Hugging Face平臺上的下載量僅次于RoBERTa,每月下載量超過6800萬次。然而,隨著技術(shù)的不斷進步,原版BERT模型在某些方面已略顯陳舊。

面對這一挑戰(zhàn),Hugging Face及其合作伙伴借鑒了近年來LLM領(lǐng)域的最新進展,對BERT的模型架構(gòu)和訓(xùn)練過程進行了全面優(yōu)化,最終推出了ModernBERT。這一新版本旨在接替原版BERT,成為自然語言處理領(lǐng)域的新標桿。

ModernBERT在基準測試中的表現(xiàn)令人矚目。開發(fā)團隊使用了多達2萬億個Token的數(shù)據(jù)進行訓(xùn)練,使得該模型在多種分類測試和向量檢索測試中均取得了業(yè)界領(lǐng)先的成績。這一成果不僅驗證了ModernBERT的先進性,也展示了開發(fā)團隊在模型優(yōu)化方面的深厚實力。

為了滿足不同用戶的需求,開發(fā)團隊還推出了兩個版本的ModernBERT模型,分別是擁有1.39億參數(shù)的精簡版和擁有3.95億參數(shù)的完整版。這兩個版本均提供了強大的自然語言處理能力,用戶可以根據(jù)自己的實際需求進行選擇。

目前,ModernBERT的模型文件已經(jīng)公開發(fā)布,用戶可以通過指定的項目地址進行下載和使用。這一新版本的推出,無疑將為自然語言處理領(lǐng)域的發(fā)展注入新的活力。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動資訊  |  爭議稿件處理  |  English Version