台灣資料中心產業正面臨前所未有的能效監管壓力。隨著經濟部正式將 PUE(Power Usage Effectiveness)納入強制性規範,契約容量 5 MW 以上的資料中心必須在限期內達到明確的 PUE 門檻值[1]。對於冷凍空調工程師而言,這不僅是一個數字目標,更是一場從設計理念到設備選型、從氣流管理到控制策略的全面工程變革。冷卻系統作為 PUE 中佔比最大的非 IT 能耗項目,是決定達標成敗的核心戰場。
一、台灣資料中心 PUE 法規背景
全球資料中心的電力消耗已佔全球總用電量的 2–3%,且隨著 AI 運算需求的爆發,預計在未來五年內翻倍成長[2]。面對龐大的能源消耗與碳排壓力,台灣經濟部能源署針對大型資料中心訂定了明確的 PUE 管理規範,將能效指標從業界自律提升為法定義務。
根據現行規範,資料中心依其規模與類型,適用不同的 PUE 門檻要求:
- 超大規模資料中心(Hyperscale):契約容量 5 MW 以上的自建自用型設施,PUE 年均值須達 1.3 以下
- 共置型資料中心(Colocation):契約容量 5 MW 以上的多租戶共置設施,PUE 年均值須達 1.4 以下
- 既有設施:已營運之資料中心須提出改善計畫,逐年向目標值趨近
共置型資料中心的 PUE 門檻略高於超大規模設施,原因在於多租戶環境中,IT 負載的變動性較大、冷卻效率難以全域最佳化,且業者對租戶的設備配置控制有限[3]。此差異化標準反映了法規制定者對實務運營困難的務實考量。
二、PUE 的定義與計算方法
PUE 由 The Green Grid 於 2007 年提出,是全球最廣泛採用的資料中心能效指標[4]。其定義直觀而明確:
總設施能耗(Total Facility Power)涵蓋資料中心邊界內的所有電力消耗,包含 IT 設備、冷卻系統、UPS 及配電損耗、照明、安防與其他輔助系統。IT 設備能耗(IT Equipment Power)則僅計入伺服器、儲存設備、網路設備等直接用於運算與資料處理的電力。
冷卻系統在 PUE 中的佔比
在典型的資料中心能耗結構中,冷卻系統佔非 IT 能耗的 30–40%,是最大的單一輔助能耗項目[5]。以一座 PUE 1.5 的傳統資料中心為例,若 IT 負載為 10 MW,則總能耗為 15 MW,其中 5 MW 為非 IT 能耗。冷卻系統約佔其中 3–4 MW,包括冰水主機、冷卻水塔、泵浦、精密空調風扇等。將 PUE 從 1.5 降至 1.3,意味著非 IT 能耗須從 5 MW 壓縮至 3 MW——冷卻系統節能是達成此目標的最大槓桿。
量測邊界與計算週期的標準化
PUE 的計算看似簡單,但量測邊界的定義直接影響數值的準確性與可比較性。The Green Grid 定義了三個量測等級[4]:
- Level 1(基本):以 UPS 輸出端作為 IT 負載量測點,量測週期為年度
- Level 2(中級):以 IT 設備配電盤(PDU)輸出端量測,量測週期為月度
- Level 3(進階):以個別 IT 設備電源輸入端量測,量測週期為即時連續
台灣法規要求採用 Level 2 以上的量測精度,並以全年 365 天的加權平均值作為申報依據。這意味著資料中心不能僅仰賴冬季低溫月份的優異 PUE 來拉低年均值,夏季高溫月份的冷卻效率同樣至關重要。
七大檢核項目解析
為確保 PUE 申報數據的完整性與真實性,法規同步要求資料中心針對以下七大項目進行定期檢核:
- 量測設備校準紀錄:電力量測設備須每年校準,確保誤差在 ±2% 以內
- 能耗分項計量:冷卻、配電、照明等各子系統須獨立計量,不得以總表扣減方式推估
- IT 負載率紀錄:須記錄 IT 設備的實際負載率,避免以空載或低載狀態美化 PUE
- 冷卻系統效率紀錄:冰水主機 COP、冷卻水塔效率、泵浦能耗等須逐月記錄
- UPS 效率與配電損耗:UPS 運轉效率及變壓器損耗須納入計算
- 自由冷卻時數紀錄:採用水側或氣側自由冷卻的設施,須記錄實際運轉時數與節能量
- 異常事件排除說明:停電、設備故障等非常態運轉期間的數據排除,須有合理依據與紀錄
三、冷卻系統對 PUE 的影響分析
要系統性降低 PUE,首先須拆解冷卻系統的能耗結構。冷卻 PUE 分項(Cooling PUE 或 CLF, Cooling Load Factor)可表示為:
對一座傳統氣冷資料中心,CLF 通常在 0.3–0.5 之間。若要達到整體 PUE 1.3,且配電損耗(UPS、變壓器等)佔比約 0.10–0.15,則 CLF 必須壓縮至 0.15–0.20 以下——這對冷卻系統設計提出了極高的要求。
冰水主機 COP 與 PUE 的關係
冰水主機(Chiller)是冷卻系統中最大的單一能耗設備,其能效以 COP(Coefficient of Performance)或 kW/RT 表示。以一座 10 MW IT 負載的資料中心為例[6]:
- 傳統螺旋式冰水主機(COP 4.5):冷卻 IT 負載所需的主機耗電約 780 kW,對 PUE 貢獻約 0.078
- 高效離心式冰水主機(COP 6.5):主機耗電降至約 540 kW,PUE 貢獻降為 0.054
- 磁浮離心式冰水主機(COP 8.0–10.0):主機耗電可降至 350–440 kW,PUE 貢獻僅 0.035–0.044
僅冰水主機一項的效率差異,即可造成 PUE 0.03–0.04 的變動。在 PUE 1.3 的目標下,每 0.01 的改善都彌足珍貴。
風扇能耗:精密空調 vs 列間空調 vs 後門冷卻
空調末端的風扇能耗是常被低估的 PUE 影響因子。傳統下送風精密空調(CRAC/CRAH)的風扇功率佔其總功率的 30–40%,且因送風路徑長、風道阻力大,風扇效率偏低。列間空調(In-Row Cooling)縮短了送風距離,風扇能耗可降低 20–30%。後門冷卻器(Rear Door Heat Exchanger)則進一步將冷卻點推至機櫃排風面,幾乎消除送風路徑損失[5]。
水泵能耗:定流量 vs 變流量系統
冰水與冷卻水泵浦的能耗在冷卻系統中佔比約 10–15%。傳統的定流量系統不論負載高低均以額定流量運轉,造成部分負載時的嚴重能源浪費。變流量系統搭配變頻驅動器(VFD),可依據實際冷卻需求動態調整流量。根據泵浦親和律(Affinity Laws),流量降至 80% 時,泵浦功率僅為額定的 51%;流量降至 60% 時,功率更降至 22%[7]。對於全年平均負載率約 60–70% 的資料中心,變流量系統可節省 40–60% 的泵浦能耗。
四、PUE 1.3 達標的冷卻工程策略
從工程實務角度,PUE 1.3 並非單一技術能夠達成的目標,而是多項策略疊加的系統性成果。以下依據影響幅度與實施優先序,逐一分析關鍵工程策略。
提高冰水供水溫度
傳統資料中心的冰水供水溫度設定為 7°C,這源自舒適空調的設計慣例。然而,ASHRAE TC 9.9 指南允許 IT 設備的進風溫度高達 27°C(A1 等級推薦範圍上限)[8],這意味著冰水供水溫度有巨大的提升空間:
- 7°C → 12°C:冰水主機 COP 提升約 15–20%,同時增加水側自由冷卻的可用時數
- 12°C → 18°C:COP 再提升 20–30%,台灣地區水側自由冷卻時數可從不足 500 小時擴展至 1,500 小時以上
- 18°C → 24°C(溫水冷卻):在直接液冷架構下可行,自由冷卻時數可達 4,000 小時以上
每提高 1°C 的供水溫度,冰水主機的 COP 約可改善 2–3%。這是投資最小、效益最直接的 PUE 改善手段。
水側自由冷卻在台灣的應用
水側自由冷卻(Waterside Economizer)利用冷卻水塔在低外氣濕球溫度時直接產生足夠低溫的冷卻水,經由板式熱交換器冷卻冰水,旁通冰水主機運轉。在台灣高雄地區,年均濕球溫度約 23–24°C,若冰水供水溫度設定為 7°C,水側自由冷卻幾乎無可用時數。但將供水溫度提升至 18°C 後,可利用的時數顯著增加。搭配部分自由冷卻模式(冷卻水塔與冰水主機協同運轉),全年節能效益可達冷卻能耗的 10–15%。
氣側自由冷卻的限制與間接蒸發冷卻
氣側自由冷卻(Airside Economizer)直接引入外氣冷卻機房。在乾燥涼爽的氣候區(如美國西北部),此方案可將 PUE 降至 1.10 以下。但台灣的高溫高濕環境嚴重限制了氣側自由冷卻的應用:高濕度可能導致伺服器結露,且含鹽分的沿海空氣會加速設備腐蝕。
間接蒸發冷卻(Indirect Evaporative Cooling, IEC)是折衷方案——利用蒸發冷卻的原理降低送風溫度,但透過熱交換器隔離外氣與機房空氣,避免濕度與污染物的侵入。在台灣中南部地區,IEC 可在過渡季節提供部分冷卻能力,但夏季的高濕球溫度仍限制了其效益。
高效離心式與磁浮冰水主機選型
冰水主機是冷卻系統的核心設備,其選型直接決定 PUE 的基準線。對於以 PUE 1.3 為目標的資料中心,應優先考慮以下機型[6]:
- 磁浮離心式冰水主機:無油軸承設計,部分負載效率極佳,IPLV 可達 0.30–0.35 kW/RT(COP 10–12),適合負載變動大的資料中心
- 變頻離心式冰水主機:以變頻驅動調節壓縮機轉速,滿載 COP 可達 6.5–7.5,IPLV 表現優於定速機型
- 多台主機分級配置:以大小搭配或 N+1 冗餘配置,確保各負載工況下均有主機在高效率區間運轉
正在規劃資料中心冷卻系統以達成 PUE 法規要求?與我們的技師團隊聯繫,取得從設計到驗證的完整工程方案。
熱通道與冷通道封閉策略
氣流管理的品質直接決定了冷卻效率的上限。冷熱空氣的混合(Bypass 與 Recirculation)是傳統機房最大的能源浪費來源之一[5]。熱通道封閉(Hot Aisle Containment, HAC)或冷通道封閉(Cold Aisle Containment, CAC)可消除 80% 以上的冷熱混合,提升冷卻效率 20–30%。對於追求 PUE 1.3 的設施,通道封閉不是選項,而是基本要求。HAC 方案在實務上更受青睞,因為它將高溫回風集中導向空調回風口,同時讓機房其餘空間維持在較舒適的溫度。
五、液冷技術對 PUE 的突破性改善
當氣冷系統的各項優化已逼近物理極限,液冷技術為 PUE 帶來質的飛躍。液體的比熱容與導熱係數遠優於空氣,使其能以更少的能耗移除更多的熱量[9]。
直接液冷(DLC)可達 PUE 1.05–1.10
直接液冷(Direct Liquid Cooling)以冷板貼合晶片表面,冷卻液溫度通常設定在 30–45°C。由於冷卻液溫度遠高於外氣溫度,在絕大多數氣候條件下均可實現全年自由冷卻(僅靠冷卻水塔或乾式散熱器即可排熱),完全旁通冰水主機。直接液冷可移除 IT 設備 70–80% 的熱量,剩餘的 20–30%(記憶體、硬碟、網路設備等產生的熱量)仍需少量氣冷輔助。在此架構下,PUE 可降至 1.05–1.10 的水準。
浸沒式冷卻幾乎消除冷卻能耗
浸沒式液冷(Immersion Cooling)將整台伺服器浸入不導電的介電冷卻液中,實現 100% 的熱量由液體帶走。由於完全不需要風扇(伺服器風扇與空調風扇均可移除),風扇相關的能耗歸零。配合高溫冷卻液的全年自由冷卻,浸沒式冷卻的理論 PUE 可逼近 1.02–1.04[9]。但其採用門檻較高,包含設備保固條件、維護流程改變、冷卻液成本與結構承重等考量。
混合架構的 PUE 計算方法
實務上,多數資料中心將採用液冷與氣冷並存的混合架構——高密度 GPU 機櫃使用液冷,一般伺服器與網路設備維持氣冷。混合架構的 PUE 計算須將兩套冷卻系統的能耗合併計入分子:
液冷區域的 IT 負載佔比越高,其低冷卻能耗的效益越能拉低整體 PUE。規劃階段應明確定義液冷與氣冷的容量配比,並以此推算混合 PUE 的目標值。
六、營運期 PUE 持續優化
設計階段的 PUE 目標值與實際營運的 PUE 之間,往往存在 0.1–0.2 的落差[10]。營運期的持續優化是確保法規達標的最後一道防線。
PUE 即時監測與基線建立
建立完善的能耗分項計量系統(Sub-metering)是營運優化的基礎。每一台冰水主機、每一組泵浦、每一列精密空調的即時能耗數據,均須彙整至 BMS(建築管理系統)或 DCIM(資料中心基礎設施管理)平台。透過持續的數據蒐集,建立不同外氣條件、不同 IT 負載率下的 PUE 基線曲線,才能識別異常與量化改善空間。
季節性調整策略
台灣的氣候特性使得冷卻系統必須具備季節性調整能力。夏季(6–9月)外氣濕球溫度常超過 27°C,冰水主機須承擔全部冷卻負荷;過渡季節(3–5月、10–11月)可啟動部分自由冷卻;冬季(12–2月)在台灣北部地區可實現較高比例的自由冷卻。運轉團隊應依據季節制定差異化的冷卻策略,包括冰水供水溫度設定、冷卻水塔風扇轉速、主機台數啟停邏輯等。
AI 優化控制的 PUE 改善實證
Google 於 2016 年率先將 DeepMind 的機器學習模型應用於資料中心冷卻控制,實現了 40% 的冷卻能耗降低,PUE 改善約 0.12。此後,基於 AI 的冷卻優化已成為業界趨勢。AI 控制系統的核心能力包括:根據天氣預報預測未來數小時的冷卻需求、動態調整冰水溫度設定點、最佳化多台主機的負載分配,以及識別設備效率衰退並觸發預防性維護。對於以 PUE 1.3 為目標的設施,AI 優化控制可在傳統控制邏輯的基礎上,額外貢獻 0.05–0.10 的 PUE 改善。
結語
PUE 法規的強制實施,標誌著台灣資料中心產業從「能建就好」邁向「必須高效」的時代轉折。對於冷凍空調工程專業而言,這既是挑戰也是機遇。PUE 1.3 的達標策略並非依靠單一神奇技術,而是從冰水溫度提升、主機效率最佳化、氣流管理精細化、自由冷卻最大化,到液冷技術導入與 AI 控制優化的系統性工程。每一個 0.01 的 PUE 改善,都源自於對細節的執著與對物理本質的深刻理解。在法規驅動與永續發展的雙重壓力下,冷卻系統設計的專業價值將被重新定義。