ITBear旗下自媒體矩陣:

DeepSeek發(fā)布新模型引轟動(dòng),英偉達(dá)臺(tái)積電市值蒸發(fā),OpenAI如何應(yīng)對(duì)?

   時(shí)間:2025-01-28 13:12:39 來源:ITBEAR編輯:快訊團(tuán)隊(duì) 發(fā)表評(píng)論無障礙通道

在科技界的浩瀚星空中,一顆名為DeepSeek的新星正以前所未有的光芒照亮了整個(gè)硅谷與華爾街。近日,這家被譽(yù)為“國產(chǎn)AI之光”的企業(yè)再次震撼全球,不僅讓美股科技板塊風(fēng)聲鶴唳,更是在1月28日乘勝追擊,發(fā)布了其最新的開源多模態(tài)AI模型——Janus-Pro。

DeepSeek的這一舉動(dòng),顯然給業(yè)界巨頭帶來了不小的壓力。OpenAI的聯(lián)合創(chuàng)始人兼CEO Sam Altman罕見地在社交媒體上連續(xù)發(fā)文,對(duì)DeepSeek的新模型R1給予了高度評(píng)價(jià),稱其為“令人印象深刻的模型”,并預(yù)告OpenAI也將推出更強(qiáng)大的模型,堅(jiān)持其既定的技術(shù)發(fā)展路線。

據(jù)DeepSeek公布的數(shù)據(jù),其新開源的Janus-Pro-7B模型在Geneval和DPG-Bench兩大基準(zhǔn)測試中,性能超越了OpenAI的DALL-E 3和Stable Diffusion。這一消息迅速點(diǎn)燃了業(yè)界的熱情,網(wǎng)友們紛紛在社交平臺(tái)上分享各種創(chuàng)意梗圖,其中一張更是將GPT-5打上了大紅叉,而在巨鯨圖案上赫然印上了DeepSeek的logo。

早在之前,DeepSeek憑借其R1模型的高性能和成本效益,已經(jīng)贏得了“國產(chǎn)AI價(jià)格屠夫”的稱號(hào),讓整個(gè)硅谷為之震動(dòng),也讓業(yè)界開始質(zhì)疑美國科技巨頭在AI基礎(chǔ)設(shè)施上的巨額投入是否必要。隨著DeepSeek影響力的迅速擴(kuò)大,它已登頂中美等多國App Store免費(fèi)榜。

DeepSeek的沖擊波也席卷了美股市場。英偉達(dá)股價(jià)昨日暴跌17%,市值蒸發(fā)近6000億美元(折合人民幣約4.35萬億元),其創(chuàng)始人兼CEO黃仁勛的財(cái)富一夜之間縮水201億美元(約合人民幣1458億元)。同時(shí),臺(tái)積電的市值也蒸發(fā)了1508億美元(約合人民幣1.09萬億元)。DeepSeek作為“AI界拼多多”,這一刀“砍”掉了英偉達(dá)和臺(tái)積電超5萬億元的市值,堪稱奇跡。

美股科技股和芯片股均受到重創(chuàng),納斯達(dá)克100指數(shù)下跌3.1%,標(biāo)普500指數(shù)下跌1.5%,微軟、谷歌母公司Alphabet、博通、臺(tái)積電、ASML等科技巨頭紛紛下跌。而一向?qū)I競賽保持謹(jǐn)慎態(tài)度的蘋果,卻在這場風(fēng)暴中逆勢上漲3.2%,重返全球市值第一的寶座。

DeepSeek的崛起也引起了全球主流媒體的廣泛關(guān)注,多家外媒的頭版都報(bào)道了這一事件,這在科技界并不多見。

隨著DeepSeek以驚人的速度不斷開源高質(zhì)量新模型,其在全球科技圈引發(fā)的轟動(dòng)效應(yīng)還在持續(xù)擴(kuò)大。新發(fā)布的Janus-Pro模型有1B和7B兩款,能夠生成高質(zhì)量的AI圖像,且一如既往地開源、免費(fèi)、可商用。13頁的技術(shù)報(bào)告也已經(jīng)公開。

據(jù)技術(shù)報(bào)告介紹,Janus-Pro是前作Janus的升級(jí)版,結(jié)合了優(yōu)化的訓(xùn)練策略、擴(kuò)展的訓(xùn)練數(shù)據(jù),并擴(kuò)展到更大的模型尺寸,在多模態(tài)理解和文本到圖像的指令遵循能力方面都取得了顯著進(jìn)步,同時(shí)也增強(qiáng)了文生圖的穩(wěn)定性。網(wǎng)友們已經(jīng)在社交平臺(tái)上分享了對(duì)Janus-Pro-7B的體驗(yàn),總體評(píng)價(jià)是信息理解基本準(zhǔn)確,生成圖像完整,但在局部細(xì)節(jié)上有所欠缺。

Janus-Pro的技術(shù)解讀顯示,該模型遵循自回歸框架,解耦了多模態(tài)理解和視覺生成的視覺編碼,采用獨(dú)立的編碼方法將原始輸入轉(zhuǎn)換為特征,然后由統(tǒng)一的自回歸Transformer進(jìn)行處理。實(shí)驗(yàn)使用最大支持序列長度為4096的DeepSeek大模型作為基礎(chǔ),通過改進(jìn)訓(xùn)練策略和數(shù)據(jù)比例,實(shí)現(xiàn)了更高效的訓(xùn)練和整體性能的提升。

盡管Janus-Pro在多模態(tài)理解和文生圖指令遵循能力上取得了顯著進(jìn)步,但仍存在一定的局限性,如輸入分辨率限制為384 × 384,可能影響其在細(xì)粒度任務(wù)中的性能。對(duì)于文生圖,低分辨率加上視覺tokenizer帶來的重建損失,導(dǎo)致圖像雖然具有豐富的語義內(nèi)容,但缺乏精細(xì)的細(xì)節(jié)。不過,技術(shù)報(bào)告指出,提高圖像分辨率有望緩解這些問題。

舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動(dòng)資訊  |  爭議稿件處理  |  English Version