AI是吃電怪獸!ChatGPT訓練1次 耗電量可看185年Netflix
隨著人工智慧(AI)的迅猛發展,能源消耗成為科技大廠擔憂的主要瓶頸。AI技術的進步,雖然推動了科技革新和商業增長,但其高耗電的特性也引發了廣泛關注。沒有足夠的能源支持,AI的發展可能會受到制約。
AI的能源需求究竟有多高?
根據《美國新聞網站Vox》的分析,國際能源總署(IEA)在其1月發布的報告中首次納入了資料中心、加密貨幣和AI領域的能源消耗數據。IEA預測,截至2022年,這三個領域的電力需求總和占全球能源需求的近2%。然而,到2026年,這一需求量將翻倍,相當於整個日本一年用電量的水平。
特別是在生成式AI的訓練中,能源需求尤為巨大。例如,訓練一個像OpenAI的GPT-3這樣的大型語言模型,所需的電力約為130萬度,相當於130個美國家庭一年的電力消耗。這樣的數字讓人感覺驚人:訓練GPT-3一次的用電量,相當於讓一個人看185年的Netflix。
進一步來看,每次請求ChatGPT的解答,所需的電量是進行一次Google搜尋的9.7倍。如果ChatGPT的請求量達到平均每天90億次,每年將增加約10億度電,相當於歐盟150萬人一年的電力需求。
AI耗電只是冰山一角
儘管AI的高耗電量引人關注,但相比之下,加密貨幣挖礦和資料中心的能源消耗更為龐大。資料中心的能效問題也值得關注。根據Uptime Institute的報告,2020年全球大型資料中心的平均能效比為1.59,意味著每消耗一度電的IT設備,還需消耗0.59度電來支持配套設施,其中大部分用於冷卻系統。冷卻系統的能耗可占資料中心總能耗的40%。
隨著AI技術和加密貨幣的發展,科技巨頭擴大了資料中心的規模。IEA的統計顯示,美國在2022年擁有2700個資料中心,消耗了全國4%的電力。預計到2026年,這一比例將增至6%,電力供應將面臨更大挑戰。
▼預計到2026年,電力供應將因AI技術面臨更大挑戰。(示意圖/Pexels)
根據富國銀行的報告指出,隨著AI、半導體和電池製造擴張以及車輛電氣化,預計到2030年,美國的總電力需求將增長20%。由於大量新的核電容量尚未上線,短期內電力供應仍將主要依賴天然氣。高盛集團的分析顯示,天然氣將滿足AI和資料中心電力需求增長的60%,剩下的40%才來自再生能源或其他來源。
氣候變遷也使得能源供應變得更加脆弱。IEA報告指出,2023年全球水力發電占比跌至30年來新低,而天然氣在冬季極端天氣下的穩定性也存在問題。這些因素形成了一個惡性循環,使得在短期內支應AI發展的電力需求變得更加困難。
面對這些挑戰,科技公司正在採取行動。Meta首席執行官馬克·祖克柏(Mark Zuckerberg)表示,雖然GPU供應瓶頸已經有所緩解,但電力供應仍將限制AI的成長。特斯拉首席執行官馬斯克(Elon Musk)預測,2025年底前,新的AI模型可能會超越人類智慧,但前提是電力供應能夠滿足需求。
OpenAI首席執行官阿特曼(Sam Altman)相信,核融合技術可能是解決AI高耗能問題的關鍵,並已對核融合技術投入了數億美元。微軟也簽署了價值100億美元的綠色能源協議,推動全球再生能源建設。
儘管投資者對AI領域的投資熱情高漲,但高盛的分析師認為,公用事業、再生能源發電和工業領域的下游投資機會被低估。要實現AI的可持續發展,這些領域的投資和技術進步將至關重要。
(封面圖/取自Pixabay)
更多東森財經新聞報導