近日,一篇來自微軟與華盛頓大學(xué)合作的醫(yī)療領(lǐng)域研究論文,不經(jīng)意間揭示了OpenAi系列人工智能模型的詳細(xì)參數(shù)配置,引起了業(yè)界的廣泛關(guān)注。
論文中提及,備受期待的GPT-4模型擁有驚人的1.76萬億參數(shù),這一數(shù)字彰顯了其在處理復(fù)雜語言和理解任務(wù)上的強大潛力。而與之相比,GPT-4o系列的參數(shù)規(guī)模則顯得更為精簡,其基礎(chǔ)版本參數(shù)量約為2000億,即便是更為輕量級的mini版,也達(dá)到了80億參數(shù),這一設(shè)計或意味著OpenAi在追求高效能與資源利用上邁出了新的一步。
論文還披露了其他幾個型號的參數(shù)信息:o1-preview版本擁有約3000億參數(shù),而它的mini版本則縮減至約1000億;另一款名為Claude 3.5 Sonnet的模型,其參數(shù)量也達(dá)到了約1750億的水平。這些信息不僅為研究人員提供了寶貴的參考,也讓公眾對OpenAi的技術(shù)進展有了更深入的了解。
值得注意的是,GPT-4o系列參數(shù)量的相對減少,尤其是mini版僅有80億參數(shù),這一策略可能旨在滿足更多對計算資源有限制的應(yīng)用場景需求,同時也展示了OpenAi在模型優(yōu)化和壓縮技術(shù)上的最新成果。這種輕量級模型的開發(fā),有望在保持高性能的同時,降低運行成本,拓寬AI技術(shù)的應(yīng)用范圍。