黃仁勳只用了一句話,就讓全球幾家空調與散熱巨頭的市值,在盤中瞬間蒸發了數十億甚至上百億美元。

他說:「我們未來的Vera Rubin平台,是用攝氏45度的溫水來冷卻的。在這個溫度下,資料中心不再需要傳統的冰水主機(Chiller)。」

市場的第一反應是:Nvidia不再需要散熱了!這對整個散熱行業是毀滅性打擊!

於是,恐慌性拋售開始了。但事實上,要了解這個變化,我們要先了解一下數據中心是如何散熱的。

傳統散熱:在數據中心裡裝一台「巨型冰箱」

過去幾十年,數據中心的散熱邏輯是「冷卻空氣」。

你可以把大型冷水機組 (Chillers)想像成一台放在頂樓的巨型冰箱。它的任務是利用電力,強行把水溫降到很低(通常是 7°C 到 15°C)。運作流程是這樣的:

  1. 冷水機組製造出冷水
  2. 這些冷水流進室內的「空調箱」(CRAH)
  3. 空調箱吹出冷風
  4. 冷風吹向伺服器,帶走晶片的熱量

問題在於,空氣的導熱能力非常差。當AI晶片像電磁爐一樣燙時,你就算把風扇吹到起火,也來不及帶走熱量。

而且,為了維持那台「巨型冰箱」運作,數據中心有30%~40%的電費是花在冷水機組上的。這就是為什麼傳統方式既浪費空間,又極度耗能。

液冷技術(Liquid Cooling):把「水冷頭」直接貼在晶片上

液冷技術(特別是Direct Liquid Cooling, DLC)跳過了空氣這個低效率的中介,直接用液體去「吸熱」。運作流程是這樣的:

  1. 像賽車改裝一樣,在晶片表面貼上一塊金屬冷板。
  2. 液體(通常是水或特殊冷卻液)直接流過這塊冷板。
  3. 液體直接帶走晶片的熱量,然後流出伺服器。

為什麼這樣更好?水的導熱能力是空氣的25倍以上。

這意味著你可以用更小的體積,處理更多的熱量。這也是為什麼Nvidia的高階機櫃(如NVL72)必須強制使用液冷,因為空氣已經「吹不動」這些怪獸晶片了。

Vera Rubin革命:為什麼「不要冰箱」卻更需要「水管」?

讓我們回到CES大會上,黃仁勳說到:「我們用45°C的溫水來冷卻。」這聽起來很反直覺:45°C的水不是溫的嗎?怎麼冷卻晶片?

事實上,只要晶片表面是80°C~90°C,45°C的水對它來說依然是「涼爽」的,足以帶走熱量。

那麼,既然我們只需要45°C的水,那我們根本不需要那台耗電的「巨型冰箱(冷水機組)」來製造15°C的冷水了。

我們只需要把45°C的熱水排到室外,利用室外空氣(假設是 30°C)進行自然熱交換,水溫自然就會降下來。

這就是為什麼Nvidia的改變依然需要「液冷技術」:雖然我們不需要「冷水機組(Chiller)」來製造人工冷能,但我們比以前更依賴「液冷循環系統」。

包括,更精密的 CDU (液冷分配單元):既然沒有了冷水機,系統需要更聰明的泵浦和控制閥,來精確控制這45°C的溫水流量。

更龐大的歧管 (Manifolds):每一台伺服器、每一個晶片都要「接水管」。

還有,更高效的熱交換器:雖然不用冰箱,但我們需要巨大的「乾冷器」在室外散熱。

散熱的需求不但沒有消失,反而因為晶片功耗暴增(Rubin平台單顆晶片功耗高達2300W),散熱問題變得比以往任何時候都更加棘手。

消失的,只是那台笨重、耗電的「車庫大冷氣」而已。

這場變革,清晰地劃分出了兩個陣營:未來的贏家與輸家。

傳統冰水主機(Chiller)巨頭的情況

傳統 HVAC(暖通空調)巨頭,他們的核心業務之一就是製造那些大型的冰水主機。他們就像是世界上最會造「車庫大冷氣」的專家。

當Nvidia這位最重要的客戶直接宣布「我的新設計不再需要你的產品」時,市場的恐慌是完全可以理解的。

他們必須立刻、馬上轉向液冷解決方案,否則在AI資料中心這個增長最快的市場裡,他們將被徹底邊緣化。

液冷生態系的玩家

Vertiv的前身是艾默生網絡能源(Emerson Network Power),它不只做散熱。它的業務核心是「數據中心基礎設施」,主要分為兩大塊:

  • 電源管理 (Power):包含 UPS(不斷電系統)、配電櫃、開關櫃。這部分佔了它營收的很大一部分。
  • 熱管理 (Thermal):包含傳統的精密空調、大型冷水機組,以及現在最火的液冷系統。

Vertiv旗下一直有液冷產品線(如 Liebert 品牌),但過去20年,數據中心95%都是用風冷,所以液冷只是它的一個「小眾實驗室產品」。

雖然Nvidia說「不需要冷水機組(Chillers)」,看似砍掉了Vertiv的一部分傳統生意,但實際上,液冷系統的「含金量」比傳統空調高得多。

傳統冷水機組像是一台巨大的工業設備,競爭者眾多,利潤透明。但Nvidia要求的液冷系統,是一套「零容忍」的精密工程,這需要如Vertiv這種專家。

轉型不會一夜發生

儘管黃仁勳的願景很宏大,但投資者需要注意幾個現實邊界:

  1. 氣候限制:在亞利桑那州或中東沙漠,45°C的溫水冷卻在夏天依然面臨嚴峻挑戰,機械製冷(Chiller)可能還是得作為備援。
  2. 存量市場:全球現有的數據中心不可能拆掉重建,混合架構(Blackwell + Rubin)會持續很長一段時間。
  3. 功耗悖論:雖然Rubin效率更高,但單顆晶片功耗已達2,300W。這意味著熱密度變高了,散熱的「總預算」其實是在增加的,只是花錢的地方變了。

協同設計(Co-design)時代的來臨

過去,資料中心的建構是分工的:Nvidia賣晶片,戴爾/惠普賣伺服器,Vertiv賣散熱,大家各自為政。

但現在,Nvidia不再只賣晶片,它賣的是一整套高度整合的「系統」。從晶片、電源、網路到散熱,所有環節都在設計之初就被通盤考慮、緊密耦合。

在「協同設計」的情況下,Nvidia能夠在其晶片加入了極其精密的「微通道冷板」。這些冷板內部蝕刻了無數微米級的流道,讓冷卻液直接流經晶片封裝的最深處。

這就是這場革命的物理學本質:不是因為45°C的水本身有多「冷」,而是因為我們把從晶片到水之間的「散熱通道」建得無比寬闊通暢。

散熱不再是事後的補救措施,而是整個架構設計的核心一環。這意味著,散熱公司未來無法再像過去一樣,單純地銷售標準化產品。他們必須成為Nvidia生態系中的合作夥伴,能夠參與到前期共同設計中。

誰能與Nvidia緊密合作,誰就能掌握未來的訂單。

一句話,劃開了新舊時代

所以,讓我們回到最初的問題。黃仁勳的那句話,並不是給散熱行業判了死刑。他其實是劃出了一條線,線的一邊是過去,另一邊是未來。

他用最直白的方式告訴市場:依賴舊有技術、無法適應系統級整合的公司將被淘汰;而那些早已佈局液冷、並能融入新生態系的玩家,將迎來前所未有的增長。

散熱的預算依然存在,只是從購買「冰水主機」,轉移到了購買更精密、更高效的「直接液冷系統」。

*免責聲明:作者為香港證監會持牌人士,所有內容僅屬意見分享用途,並不構成投資建議。

*本文獲作者授權轉載,原文連結

責任編輯:林易萱