臺積全年用電量2023年247.75億度佔全國用電量的8.9%
比22年還增加10.4%
臺積現有120臺1UV微影機
三奈米製程用到21道高耗能的EUV曝光
五奈米約16道
預計今年新增64萬千瓦的用電,相當於全國用電需求的2%
未來5年將維持類似增幅共增加297萬千瓦的用電相當於同期間全國用電成長預測的六成
而這數字等於是1.5個核電廠的發電量
AI吃電怪獸新技術難支應
資料中心恐成綠能負面教材
2024-07-05 06:00
聯合報 / 特約撰述張大仁
《華爾街日報》報導,美國三分之一的核電站正與科技公司討論支援人工智慧(AI)驅動的資料中心供電交易。亞馬遜網路服務(AWS)即將與美國最大核電廠所有者星座能源公司(Constellation Energy)達成電力交易;AWS於3月以6.5億美元價格向Talen Energy買下一座核電資料中心。
隨著科技公司競相開發更巨大、更強大的AI模型,但提供動力的巨大電力需求最終可能會減慢競爭速度。晶片設計公司Arm行銷長巴達尼(Ami Badani)表示,資料中心目前占全球能源消耗的2%;但隨著AI的快速發展,到本世紀末,其能源消耗可能占美國總用電量的四分之一。
AI電力需求2年內增10倍 線上搜尋更耗能源
根據電力研究所估計,到2030年,數據中心可能消耗美國高達9%的電力,是目前用電量的兩倍多。
早在2023年AI革命爆發前,資料中心就已經消耗大量電力。對機器學習日益增加的需求將需要更多電力。研究機構預測,2024年第一季生成式AI年化能源將占資料中心總電網能耗的2.3%左右;但到了2025年第一季,這個比率可能會達到7.3%。
有些國家甚至有更高的使用量估計:根據國際能源總署(IEA),愛爾蘭正在考慮在2026年時提供三分之一的電力給數據中心。
IEA最近的分析計算出,資料中心、加密貨幣和AI的電力消耗可能在未來兩年內翻倍。2022年這些產業約占全球電力需求的2%。
分析師也預測AI對電力的需求將呈指數級成長,在2023年至2026年間至少增加10倍。因除了製造晶片和其他硬體所需的能源之外,AI還需要大量的運算能力來「訓練」模型,然後再次使用這些訓練來產生對用戶查詢的回應。
隨著技術發展,業者急於將其整合到應用程式和線上搜尋中,從而提高運算能力的要求。根據最近一份關於AI能源足跡的報告,使用AI的線上搜尋可能需要比標準搜尋至少多10倍的能源。這種動態是「就AI而言,愈大愈好」的信念,推動企業轉向巨大的耗能模型。因為愈大愈好,所以根本上與永續性無法相容。
須找到足夠的再生能源
而非轉向化石燃料
站在氣候角度,關鍵是找到足夠的再生能源來滿足AI短期內不斷增加的需求,而不是轉向化石燃料。這是一個特殊的挑戰,因為從汽車到暖氣系統等所有設備轉向電氣化的過程中,都增加對潔淨能源的需求。
氣候專家表示,美國的情況尤其嚴峻,能源需求約15年來首次激增,美國的能源正在耗盡。需求是由資料中心的激增所推動的,根據波士頓顧問集團的分析,到2030年,資料中心的用電量預計將增加兩倍,相當於約4000萬個美國家庭所需的電力。
對許多AI公司來說,對其能源使用的擔憂忽略了兩個重點:第一是AI本身可以協助應對氣候危機。與OpenAI合作的微軟表示,AI將成為推動永續發展解決方案的強大工具。該技術已被用於預測天氣、追蹤汙染、繪製森林砍伐地圖和監測冰融化。波士頓顧問集團接受谷歌委託的報告指出,AI可以減輕高達10%的地球供暖汙染。
此外,AI還可以在推進核融合方面發揮作用。今年2月,普林斯頓大學科學家宣布找到一種方法,可以利用該技術來預測核融合反應中潛在的不穩定性,在漫長的商業化道路上邁出重要的第一步。
AI公司也表示正在努力提高效率。谷歌表示,其資料中心的效率是典型企業資料中心的1.5倍。微軟表示,該公司正在「投資研究以衡量AI的能源使用和碳影響,同時致力於使大型系統在培訓和應用方面更加高效」。
靠多種電力才能蓬勃 可能得用更多天然氣
值得慶幸的是,增加資料中心用電量的途徑應該不會透過重新布建電網來實現,
而且所有電力不會來自單一來源。 分析師認為,資料中心需要依靠「多種選擇」才能蓬勃發展。這些選擇主要包括太陽能、風能、核能和天然氣,而每種都有其獨特的優點和缺點。
氣候智庫Ember表示,太陽能和風能是過去連續19年成長最快的能源。然而,太陽能電池板和風力渦輪機產生的電力取決於天氣,這些因素導致能源產量低於預期。時間也是太陽能和風能發電的重要因素,顯然太陽能電池板在夜間發電量不大,且風力強度在白天也不穩定。
如果僅依靠太陽能和風能,就需要建立大量發電設施。這將導致在高峰生產時間產生大量額外電力,離峰時發電不足;而將所有電力儲存起來以供離峰使用目前還不可行,因為這種技術還不存在。
太陽能和風能需要能夠提供基本電力供應的能源輔助支持。由於向低碳能源轉型,核能是最有吸引力的候選人。亞馬遜搬進賓州薩斯奎哈納核電廠旁的資料中心就是明顯的例子。
但核電有其傳統問題:說服當地民眾。就像任何大型工程一樣,建造核電廠需要得到附近居民的同意,而他們有時會對附近是否有核反應器持懷疑態度。
最後,AI可能不得不使用更多天然氣。即使在擴大現有技術的使用並引入新技術之後,仍然可能不足以解決數據中心的電力需求。亞馬遜和谷歌等營運商雖宣傳引用綠色能源,但尚不完全清楚它們是否能夠在不依賴天然氣的情況下隨心所欲地擴張。
在石化能源中,天然氣無疑是最無害的能源之一,但它仍然會產生二氧化碳、甲烷和一氧化二氮等污染物。
根據高盛報告,AI革命可能主要由天然氣提供動力。預測到2030年,新建資料中心所需電力的60%將來自天然氣,而40%將來自再生能源。如果尖端再生技術沒有按照業者希望的方式發揮作用,現實情況可能就是如此,這將使資料中心成為綠色能源的反面教材。
解決巨大的碳足跡 核融合只是一廂情願?
AI非常耗能,隨著企業競相打造規模更大、更智慧、更複雜的模型,對電力的需求也將進一步增加。對於這個自詡能拯救地球的強大工具來說,反而先面臨一個尷尬的窘境:巨大的碳足跡。
不過,ChatGPT創建者OpenAI負責人奧特曼(Sam Altman)認為,這個棘手的困境有一個明確的解決方案:核融合。他已在核融合方面投資數億美元,並表示這項被廣泛視為潔淨能源聖杯的未來技術,最終將提供下一代AI所需的大量電力。
核融合被形容為可為太陽和其他恆星提供動力,但在地球上要有效運作和商業化可能還需要幾十年的時間。對於一些專家來說,奧特曼對未來能源突破的強調反而證明,AI產業在回答如何在短期內滿足飆升的能源需求的問題上,存在全面的失敗。
AI牽動產業變革,將從算力推進至電力。美銀美林報告顯示,預估到2030年數據中心的電力需求,將以11%年複合年增長率提升,等於同於全球電力需求約1-2%,AI的電力使用量將在2023年至2028年間達到25-33%年複合成長率,這將對數據中心的設計,電力效能和散熱管理帶來挑戰。
在生成式AI 去年橫空出世後,AI數據中心、工業成長、電動車,以及建築電氣化等四大因素的推動,讓全球電力供應,成為繼算力後,有效的電力和熱管理成為今年去焦的重點事項。
美銀美林預計,到2030年,資料中心的電力需求預計將以11%的複合年增長率增長。這相當於全球電力需求的約1-2%,即240-340太瓦時(1太瓦時等於10億千瓦時)。其中,AI的電力使用量將在2023年至2028年上看25-33%的年複合長率這,也將對數據中心的設計和運營帶來挑戰。
美林證券也指出,隨著數據中心功率密度的提高,傳統的冷卻方法可能不再適用。例如,85%的數據中心的最大機架功率密度小於30千瓦,而對於高於20千瓦的功率密度,可能需要採用液體冷卻解決方案。
新的散熱方案技術是透過將冷卻劑直接輸送到晶片,每個晶片都有兩條管道(一條熱管,一條冷管)。
美林整券也說明,隨著數據中心向更高功率密度的轉變,電力和熱管理內容的需求也在增加。例如,輝達液冷供應商即預期,每兆瓦的電力和熱管理內容機會將分別增加18%和740%。


沒有留言:
張貼留言