隨著 NVIDIA GB200 與 Rubin 世代的高密度 AI 機櫃問世,單櫃功耗已從傳統的 30kW 暴增至 130kW 甚至 300kW 以上,這讓傳統風冷系統面臨物理極限。目前資料中心正全面轉向「電力與液冷協同設計」,將 CDU(冷卻液分配單元)、高壓直流(HVDC)電源模組與伺服器整合為標準化算力模組。這種設計不僅能將 PUE 值從 1.5 壓低至 1.2 以下,更讓冷卻系統從「建築配角」轉變為「機櫃標配」。台達電、雙鴻等台廠已切入此供應鏈,提供包含冷板、分歧管與智慧化 CDU 的整套方案,確保 AI 超級工廠能在有限的電力容量下,榨出數倍於以往的算力密度。
資料中心選址已進入「電力即算力」的競爭階段,當供電成為稀缺資源,如何提升能源經濟學便成為營運商的生存關鍵。協同設計的動機在於打破電力轉換與散熱損耗的惡性循環,透過 800V 高壓直流電減少轉換次數,並利用液冷的高熱傳導效率,將原本浪費在風扇與空調的四成電力回流至 IT 負載。這場變革正迫使產業鏈從「零組件採購」轉向「系統級整合」,未來資料中心將不再是客製化建築工程,而是像堆積木般的模組化產品。這不僅縮短了算力交付時程,更讓 ESG 規範下的低 PUE 要求從合規壓力轉化為實質的營運成本優勢。