ITBear旗下自媒體矩陣:

ChatGPT能耗真相:?jiǎn)未尾樵兓騼H0.3瓦時(shí),遠(yuǎn)低于普遍認(rèn)知

   時(shí)間:2025-02-12 11:25:40 來源:ITBEAR編輯:快訊團(tuán)隊(duì) 發(fā)表評(píng)論無障礙通道

非營(yíng)利性人工智能研究機(jī)構(gòu)Epoch AI近期公布了一項(xiàng)關(guān)于ChatGPT能耗的研究,其結(jié)果挑戰(zhàn)了以往對(duì)該技術(shù)能耗的普遍認(rèn)知。研究指出,ChatGPT的實(shí)際能耗遠(yuǎn)低于先前估計(jì)的水平。

此前,一項(xiàng)被廣泛引用的數(shù)據(jù)顯示,ChatGPT在回答一個(gè)問題時(shí)需要消耗約3瓦時(shí)的電量,這一數(shù)值是谷歌搜索能耗的10倍。然而,Epoch AI的研究人員對(duì)這一數(shù)據(jù)表示質(zhì)疑。通過對(duì)OpenAI最新的默認(rèn)模型GPT-4o進(jìn)行分析,Epoch AI發(fā)現(xiàn)ChatGPT的平均查詢能耗僅為0.3瓦時(shí),遠(yuǎn)低于許多常見家用電器的能耗。

Epoch AI的數(shù)據(jù)分析師約書亞?尤在接受采訪時(shí)表示,與日常使用的電器、溫控設(shè)備或駕駛汽車相比,ChatGPT的能耗相對(duì)較低,并不構(gòu)成顯著的能源消耗負(fù)擔(dān)。這一發(fā)現(xiàn)對(duì)公眾關(guān)于AI能耗的認(rèn)知提供了新的視角。

隨著AI行業(yè)的快速發(fā)展,其能耗問題及其對(duì)環(huán)境的潛在影響日益受到關(guān)注。最近,超過100個(gè)組織聯(lián)合發(fā)表公開信,呼吁AI行業(yè)和監(jiān)管機(jī)構(gòu)確保新的AI數(shù)據(jù)中心不會(huì)過度消耗自然資源,并減少對(duì)不可再生能源的依賴。

約書亞?尤指出,他進(jìn)行這項(xiàng)分析的原因在于先前的研究存在過時(shí)的問題。例如,先前得出ChatGPT能耗為3瓦時(shí)的研究報(bào)告是基于OpenAI使用較老、效率較低的芯片運(yùn)行模型的假設(shè)。尤表示,盡管公眾普遍認(rèn)識(shí)到AI將在未來幾年消耗大量能源,但當(dāng)前AI的實(shí)際能耗情況并未得到準(zhǔn)確描述。一些同事注意到,基于舊研究的3瓦時(shí)能耗估算數(shù)據(jù)似乎過高。

盡管Epoch AI的0.3瓦時(shí)數(shù)據(jù)是基于估算,因?yàn)镺penAI尚未提供足夠細(xì)節(jié)進(jìn)行精確計(jì)算,但這項(xiàng)研究仍具有重要意義。同時(shí),分析并未考慮ChatGPT在圖像生成或輸入處理等額外功能上的能耗。尤承認(rèn),包含長(zhǎng)文件附件等“長(zhǎng)輸入”的ChatGPT查詢可能會(huì)消耗更多電量。

然而,尤也指出,ChatGPT的基礎(chǔ)能耗未來可能會(huì)增加。隨著AI技術(shù)的進(jìn)步,訓(xùn)練這些AI可能需要更多能源,未來的AI可能會(huì)被更頻繁地使用,并處理更復(fù)雜、更多的任務(wù)。OpenAI和整個(gè)AI行業(yè)的關(guān)注點(diǎn)正在向推理模型轉(zhuǎn)移。與GPT-4o等能夠快速響應(yīng)的模型不同,推理模型需要更多時(shí)間來“思考”答案,這一過程會(huì)消耗更多的計(jì)算能力,從而導(dǎo)致更高的能耗。

尤表示,推理模型將承擔(dān)更多舊模型無法完成的任務(wù),并生成更多數(shù)據(jù),這都需要更多的數(shù)據(jù)中心支持。盡管OpenAI已經(jīng)開始推出更節(jié)能的推理模型,如o3-mini,但這些效率提升似乎不太可能完全抵消推理模型“思考”過程以及全球AI使用量增加所帶來的額外能耗需求。

舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動(dòng)資訊  |  爭(zhēng)議稿件處理  |  English Version