AI 運算時代重新定義了資料中心的散熱需求。傳統伺服器機櫃功率密度約 5–10 kW,而 GPU 高密度運算機櫃可達 40–100 kW 甚至更高,遠超傳統氣冷系統的散熱能力。我們依據 ASHRAE TC 9.9 技術委員會的熱環境指引,為 AI 算力中心規劃高效能的散熱與冷卻系統。

設計流程

  1. IT 負載與散熱需求分析——確認 GPU 伺服器規格、機櫃功率密度、機房總 IT 負載,以及未來擴充計畫,計算總散熱需求。
  2. 冷卻方案評估與選型——依據機櫃功率密度,評估氣冷、列間冷卻、後門冷卻器(RDHx)、直接液冷(DLC)或浸沒式液冷等方案的適用性[1]
  3. 冷熱通道隔離設計——規劃冷通道封閉(Cold Aisle Containment)或熱通道封閉(Hot Aisle Containment)方案,提升氣流管理效率[2]
  4. 冷源系統設計——規劃冰水主機、冷卻水塔、自然冷卻(Free Cooling)系統,並依據 ASHRAE 90.4 優化 PUE[3]
  5. 備援與可靠度規劃——依據機房等級(Tier I–IV)規劃 N+1 或 2N 冷卻備援,確保冷卻系統持續運轉不中斷。
  6. 監控與管理系統整合——部署環境監控系統(DCIM),即時監測各機櫃進氣溫度、回風溫度、冷卻水溫度與流量等關鍵參數。

技術規範與標準

  • ASHRAE TC 9.9 熱環境指引——定義資料中心 IT 設備的建議進氣溫度範圍(A1 類:18–27°C)與允許範圍(15–32°C),以及濕度建議範圍[2]
  • ASHRAE Standard 90.4——資料中心能效標準,規範冷卻系統的最低能效要求,以 PUE(Power Usage Effectiveness)為核心指標[3]
  • ASHRAE Liquid Cooling Guidelines——液冷系統設計指引,涵蓋直接液冷(Direct Liquid Cooling)與浸沒式冷卻(Immersion Cooling)的設計原則[1]

核心設計考量

氣冷系統的極限與突破

傳統的機房精密空調搭配高架地板下送風方式,在機櫃功率密度超過 15–20 kW 時即面臨散熱瓶頸。冷熱通道隔離可將氣冷系統的散熱能力提升至約 25–30 kW/櫃[2]。列間冷卻(In-Row Cooling)則將冷卻設備直接安裝於機櫃列間,縮短冷卻路徑,可支撐更高的功率密度。但對於 40 kW 以上的 GPU 機櫃,液冷方案已成為必要選擇。

液冷技術的工程實務

直接液冷(DLC)透過冷板(Cold Plate)直接帶走 CPU/GPU 的廢熱,冷卻效率遠高於氣冷。冷卻液通常採用去離子水或特殊冷卻液,供液溫度可設定在 35–45°C,有利於採用自然冷卻,降低冷源系統能耗。浸沒式液冷則將整台伺服器浸入非導電冷卻液中,散熱效率最高,但對機房設計與維護方式有根本性的改變。

PUE 優化策略

ASHRAE 90.4 以 PUE 作為資料中心能效的核心指標[3]。降低 PUE 的關鍵策略包括:提高冰水供水溫度以增加自然冷卻時數、採用變頻驅動的泵浦與風機、優化冷卻塔逼近溫度,以及透過 AI 演算法動態調整冷卻系統運轉參數。現代高效資料中心的 PUE 目標通常設定在 1.2–1.3 以下。

我們的優勢

AI 算力中心的空調設計是傳統機房工程的全面升級。從傳統氣冷到液冷技術的導入,從單一機房到大型園區的整體冷源規劃,每一個環節都需要深厚的工程底蘊與對新技術趨勢的掌握。我們的團隊結合近半世紀的冷凍空調工程經驗與對新世代散熱技術的持續研究,為客戶提供兼具可靠性與前瞻性的設計方案。

散熱技術比較

傳統氣冷方案

傳統氣冷系統採用精密空調機組(CRAC/CRAH)搭配高架地板送風或頂部送風的方式,適用於每機櫃功耗 10kW 以下的傳統資料中心。氣冷方案的優勢在於系統成熟、維護簡便、與 IT 設備完全解耦。然而,隨著 AI 運算帶來的單機櫃功耗突破 30kW 甚至 100kW,純氣冷方案已難以滿足散熱需求——空氣的比熱容(1.005 kJ/kg·K)遠低於水(4.186 kJ/kg·K),在相同散熱量下需要極大的風量,不僅噪音問題嚴重,能效也大幅下降。

直接液冷方案

直接液冷(Direct Liquid Cooling, DLC)技術將冷卻液直接引導至 GPU 晶片表面的冷板(Cold Plate),實現最高效率的散熱。目前主流的 DLC 方案包括單相液冷(使用去離子水或丙二醇溶液)與兩相液冷(使用低沸點工質如 3M Novec 系列)。單相液冷技術已相當成熟,NVIDIA 的 DGX 系列伺服器均支援冷板液冷方案,可處理每機櫃 100kW 以上的散熱需求。我們在液冷方案的管路設計、冷卻液分配單元(CDU)選型與系統防漏規劃方面累積了完整的工程能力。

浸沒式液冷

浸沒式液冷(Immersion Cooling)將整台伺服器浸泡在不導電的冷卻液中,實現全面性的散熱。這種方案可完全消除風扇噪音、大幅降低 PUE 值(可達 1.03–1.05),且對 IT 設備的佈局靈活度最高。然而,浸沒式液冷目前仍面臨冷卻液成本高、設備維護不便、以及與部分 IT 設備的相容性問題。我們持續追蹤此技術的發展,為客戶提供前瞻性的技術建議。

電力與冷卻的協同規劃

AI 算力中心的電力系統與冷卻系統密不可分。每消耗 1kW 的 IT 電力,冷卻系統約需 0.2–0.5kW 的輔助電力(取決於 PUE 值)。在規劃階段即須將電力容量、配電架構、UPS 系統與冷卻系統統一考量,避免任何一方成為瓶頸。我們與電力工程團隊緊密協作,從總電力規劃到機櫃級的配電與散熱方案,提供一體化的工程設計服務。