ITBear旗下自媒體矩陣:

彩云科技推新架構DCFormer,打造高效通用大模型云錦天章

   時間:2024-11-14 21:06:31 來源:ITBEAR作者:36氪編輯:瑞雪 發(fā)表評論無障礙通道

【ITBEAR】彩云科技發(fā)布全新AI模型架構DCFormer,顛覆傳統(tǒng)Transformer模式

在AI技術日新月異的今天,彩云科技憑借其獨創(chuàng)的DCFormer模型架構,成功引領了AI領域的新一輪技術革新。近日,該公司在北京總部盛大發(fā)布了基于這一架構的通用大模型——云錦天章,標志著AI技術進入了一個全新的發(fā)展階段。

據(jù)悉,云錦天章模型不僅在虛構世界觀構建方面表現(xiàn)出色,更賦予了小說人物編程、數(shù)學等基礎能力。它能夠高速處理大量文字,實現(xiàn)擴寫、縮寫以及文章風格的大容量更換,同時還兼?zhèn)淞藛柎?、?shù)學、編程等多種基礎功能。

云錦天章與市面上常規(guī)大模型的最大差異在于其底層模型架構。彩云科技通過改進注意力矩陣,使得DCFormer架構在相同訓練數(shù)據(jù)下,能夠將算力智能轉化率提升至Transformer的1.7到2倍,這一突破性的進展無疑將大大提升AI模型的運行效率。

DCFormer架構并非與現(xiàn)有的Transformer架構互斥,而是在其基礎上進行改進,因此所有基于Transformer架構的大模型都能在DCFormer的基礎上實現(xiàn)成本降低,這一特性無疑將進一步推動AI技術的普及和應用。

彩云科技在AI領域的創(chuàng)新成果已經得到了國際學術界的高度認可。今年5月,關于DCFormer架構的研究論文在第41屆國際機器學習大會ICML 2024上正式發(fā)表,該會議是國際機器學習領域的頂尖盛會之一。同時,彩云科技還將DCFormer的模型代碼、權重和訓練數(shù)據(jù)集在Github上全部開源,以供全球開發(fā)者共同研究和進步。

彩云科技之所以選擇另辟蹊徑研發(fā)DCFormer架構,源于對AI能源消耗問題的深刻認識。公司CEO袁行遠在接受采訪時表示,改善模型底層架構以提高效率是應對AI能源挑戰(zhàn)的最佳策略。通過提升模型效率,不僅可以降低人工智能升級迭代的成本,還能加速AI時代的到來。

盡管DCFormer架構在技術上取得了顯著突破,但彩云科技在商業(yè)化方面仍保持著謹慎態(tài)度。目前,公司旗下已有三款面向C端用戶的AI產品在全球市場取得了不俗的業(yè)績,實現(xiàn)了超過1000萬美元的年度經常性收入。而最新一輪的融資更是由快手前CEO宿華個人投資,投前估值高達1.2億美元。

據(jù)悉,彩云科技對DCFormer架構的研究及應用開發(fā)將主要服務于自身業(yè)務。未來,隨著技術的不斷進步和應用場景的不斷拓展,我們有理由期待彩云科技在AI領域創(chuàng)造更多的奇跡。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內容
網站首頁  |  關于我們  |  聯(lián)系方式  |  版權聲明  |  RSS訂閱  |  開放轉載  |  滾動資訊  |  爭議稿件處理  |  English Version