中證網(wǎng)
返回首頁

大模型為何成耗能大戶

經(jīng)濟(jì)日?qǐng)?bào)

  隨著人工智能技術(shù)快速發(fā)展,人工智能(AI)大模型的運(yùn)行消耗問題受到越來越多關(guān)注。大模型為何成了耗能大戶?能耗問題會(huì)不會(huì)成為人工智能發(fā)展的“絆腳石”?如何解決能耗問題?

  耗電耗水量大

  人工智能大模型到底有多耗能?據(jù)斯坦福人工智能研究所發(fā)布的《2023年AI指數(shù)報(bào)告》,AI大語言模型GPT-3一次訓(xùn)練的耗電量為1287兆瓦時(shí),大概相當(dāng)于3000輛特斯拉電動(dòng)汽車共同開跑、每輛車跑20萬英里所耗電量的總和。報(bào)告同時(shí)提出,AI大語言模型GPT-3一次訓(xùn)練,相當(dāng)于排放了552噸二氧化碳。

  國外研究顯示,一次標(biāo)準(zhǔn)谷歌搜索耗電0.3瓦時(shí),AI大語言模型ChatGPT響應(yīng)一次用戶請(qǐng)求耗電約2.96瓦時(shí),在AI大模型驅(qū)動(dòng)下的一次谷歌搜索耗電8.9瓦時(shí)。

  除了耗電,另有研究顯示,AI大語言模型GPT-3在訓(xùn)練期間耗水近700噸,每回答20個(gè)至50個(gè)問題就要消耗500毫升水。弗吉尼亞理工大學(xué)研究指出,Meta公司在2022年使用了超過260萬立方米的水,主要作用是為數(shù)據(jù)中心提供冷卻。

  據(jù)了解,人工智能大模型GPT-4的主要參數(shù)是GPT-3的20倍,計(jì)算量是GPT-3的10倍,能耗也隨之大幅增加。

  華泰證券研報(bào)預(yù)測,到2030年,中國與美國的數(shù)據(jù)中心總用電量將分別達(dá)到0.65萬億千瓦時(shí)至0.95萬億千瓦時(shí)、1.2萬億千瓦時(shí)至1.7萬億千瓦時(shí),是2022年的3.5倍和6倍以上。屆時(shí),AI用電量將達(dá)到2022年全社會(huì)用電量的20%和31%。

  為何如此耗能

  為什么人工智能大模型如此耗能?AI技術(shù)迅速發(fā)展,對(duì)芯片的需求急劇增加,進(jìn)而帶動(dòng)電力需求激增。同時(shí),對(duì)AI進(jìn)行大量訓(xùn)練,也意味著需要更強(qiáng)的算力中心和與之匹配的散熱能力。在AI快速迭代的道路上,電力和水資源的消耗也在快速增加。因?yàn)楹芏鄶?shù)據(jù)中心全年無休,發(fā)熱量巨大,大規(guī)模電耗和水耗主要來自于冷卻需求。

  相關(guān)統(tǒng)計(jì)顯示,數(shù)據(jù)中心運(yùn)行成本的六成是電費(fèi),而電費(fèi)里的四成多來自冷卻散熱,相應(yīng)也會(huì)帶來巨量冷卻水的消耗。風(fēng)冷數(shù)據(jù)中心六成多的耗電量都會(huì)用在風(fēng)冷上,只有不到四成電力用在實(shí)際計(jì)算上。如今,全球數(shù)據(jù)中心市場耗電量是10年前的近10倍。

  能耗問題會(huì)不會(huì)成為人工智能發(fā)展的“絆腳石”?英偉達(dá)首席執(zhí)行官黃仁勛曾提到,AI和算力耗能巨大,但由于計(jì)算機(jī)性能飛速增長,計(jì)算會(huì)更加高效,相當(dāng)于更節(jié)省能源。當(dāng)前,我國實(shí)施嚴(yán)格的能耗雙控政策,無論是AI大模型本身還是其應(yīng)用行業(yè),對(duì)單位GDP能耗來說均有明顯降低作用。

  從整體能耗來看,AI大模型帶來的效率提升也會(huì)抵消一部分能耗增長。隨著綠電廣泛應(yīng)用,再加上我國逐步由能耗雙控向碳排放雙控政策轉(zhuǎn)變,可再生能源對(duì)未來AI大模型發(fā)展的支撐能力也會(huì)越來越強(qiáng)。

  此外,相較于其他國家而言,中美等能源消費(fèi)大國和數(shù)據(jù)大國,具備更好發(fā)展AI大模型的資源條件和基礎(chǔ)。

  怎樣應(yīng)對(duì)挑戰(zhàn)

  據(jù)預(yù)測,到2025年,AI相關(guān)業(yè)務(wù)在全球數(shù)據(jù)中心用電量中的占比將從2%增加至10%。到2030年,智能計(jì)算年耗電量將達(dá)到5000億千瓦時(shí),占全球發(fā)電總量的5%。因此,在大力發(fā)展AI大模型的同時(shí),必須提前做好相關(guān)規(guī)劃布局,以提供必要的電力和水資源等技術(shù)支撐。

  有專家認(rèn)為,人工智能的未來發(fā)展與狀態(tài)和儲(chǔ)能緊密相連。因此,不應(yīng)僅關(guān)注計(jì)算力,而是需要更全面地考慮能源消耗問題。OpenAI創(chuàng)始人奧爾特曼認(rèn)為,未來AI技術(shù)取決于能源突破,更綠色的能源尤其是核聚變或更便宜的太陽能以及儲(chǔ)能的可獲得性,是人工智能發(fā)展快慢的重要因素。

  為降低電力和水資源消耗,很多企業(yè)在嘗試采用各種方法為數(shù)據(jù)中心散熱。例如,微軟曾嘗試部署海下數(shù)據(jù)中心,臉書(Facebook)數(shù)據(jù)中心選址北極圈附近,阿里云千島湖數(shù)據(jù)中心使用深層湖水制冷等,我國很多企業(yè)則把數(shù)據(jù)中心布局在水電資源豐富的西南地區(qū)。

  目前,可通過算法優(yōu)化、開發(fā)和使用更高效的AI專用硬件、調(diào)整神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程以優(yōu)化計(jì)算資源等技術(shù)方式來降低AI大模型的能耗,并更多采用自然冷卻、液冷、三聯(lián)供、余熱回收等新興節(jié)能技術(shù),提高制冷效率以降低數(shù)據(jù)中心能耗。從技術(shù)未來發(fā)展方向上看,光電智能芯片也有助于解決AI大模型的電耗和水耗問題。

  AI大模型的發(fā)展,不能僅符合高端化、智能化的要求,更要符合綠色化的發(fā)展要求。為此,從國家和地方層面上看,為緩解AI大模型發(fā)展所帶來的電力和水資源沖擊,有必要將數(shù)據(jù)中心行業(yè)納入高耗能行業(yè)管理體系,并提前做好相關(guān)規(guī)劃布局。同時(shí),加強(qiáng)資源整合,充分發(fā)揮人工智能大模型和數(shù)據(jù)中心的效能,通過使用效能下限設(shè)置等方式,確保其自身的電力和水資源使用效率。還應(yīng)嚴(yán)格落實(shí)國家能耗雙控及碳排放雙控政策,并將其碳足跡與水足跡納入行業(yè)考核范圍,切實(shí)推動(dòng)碳足跡與水足跡逐步降低,以應(yīng)對(duì)日益增長的AI大模型電力和水資源需求。

  (作者系中國宏觀經(jīng)濟(jì)研究院能源研究所研究員)

  作者:崔成

中證網(wǎng)聲明:凡本網(wǎng)注明“來源:中國證券報(bào)·中證網(wǎng)”的所有作品,版權(quán)均屬于中國證券報(bào)、中證網(wǎng)。中國證券報(bào)·中證網(wǎng)與作品作者聯(lián)合聲明,任何組織未經(jīng)中國證券報(bào)、中證網(wǎng)以及作者書面授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。