陽明交大人共享知識與情感交流的平台

校友投稿
朱玉昌(EMBA 10e):從GPU到熱力學晶片生成式AI的能源新解方

在算力為王的時代,科技產業似乎必須靠著更多晶片,換取更強運算,並付出更多電力來開闢一條成功的路徑,正因這條路徑,造就出新的矽谷秩序,也讓輝達市值在2025Q4首月衝上了五兆美元的世界之巔,更讓能源消耗成為生成式 AI的最大現實成本。從資料中心的伺服器到為冷卻系統加壓的水塔,電力不再是單純支撐,而是整個產業的隱形貨幣。就在這個高耗能的神話看似無可逆轉之際,一家名為Extropic的新創公司提出了「讓機器『擁抱雜訊』,非抑制雜訊,才是重新定義智能運算的開始」的截然不同命題。

這家公司提出了「讓物理本身思考」這種既大膽又古怪的構想。在創辦人吉拉姆.維頓(Guillaume Verdon)與技術長崔佛.麥考特(Trevor McCourt)共同具名發表的論文《熱力學採樣單元:一種用於概率運算的硬體架構》(Thermodynamic Sampling Units: A Hardware Architecture for Probabilistic Computing)裡,清楚主張以「熱力學晶片」(Thermodynamic Sampling Units, TSUs)取代傳統GPU的部分任務,讓熱雜訊與隨機波動成為可編程的運算資源。這種名為「熱力學採樣」的概念,被《連線》(Wired)雜誌形容為試圖「讓宇宙的混亂為人類工作」,聲稱在生成式AI等概率任務上可達「數千至一萬倍」的能源效率提升。

技術上,熱力學採樣單元並非量子電腦,也不是傳統邏輯電路,它的核心元件是所謂的概率位元(probabilistic bit),輸出不是確定的0或1,而是依據可調偏壓呈現某種機率分佈,例如70%為1、30%為0,這些概率位元陣列,在室溫下捕捉電子的熱波動,形成連續的隨機源。與其說是壓制雜訊,不如說是「擁抱混亂」,熱量在此不再是錯誤,而成了燃料。這點呼應了維頓自量子計算領域抽身之後,思考出「量子計算需在接近絕對零度的環境下才能運作,而熱力學計算則能在室溫下利用雜訊完成運算」的洞見。
Extropic已展示第一個原型XTR-0晶片,內含數十個概率位元,結合「現場可程式化閘陣列」(Field-Programmable Gate Array)控制偏壓以調整機率分佈;下一代Z-1晶片預計在2026年推出,規模擴至25萬個概率位元。根據論文模擬,在特定任務上如擴散模型採樣、貝葉斯推斷(Bayesian inference)、機器人導航或氣象預測,其能源消耗可由GPU的幾瓦特降到僅僅微瓦,節能幅度極大。《連線》報導指出,這種熱力學採樣單元可能成為資料中心的潛在破壞者,特別是在如今全球AI訓練電力消耗已相當於中小型國家發電量之際。

這樣的構想為何動人?因為它正面擊中AI的痛點,不確定性與能耗的雙重負擔。生成式模型的運算,本質上充滿機率性,但GPU仍以確定的數位邏輯反覆模擬隨機過程,這在物理上近乎浪費。如果能讓物理上的隨機波動自行「算出」結果,理論上就可節省龐大能源。換句話說,若大腦能靠神經元的微小隨機擾動來思考,那麼,機器為何不能?

然而,從「概念優雅」到真正「工程顛覆」之間,仍隔著數道險關。熱雜訊要能被可靠利用,必須同時具備可重複性與可編程性,每一次熱波動都需要受控輸出,而不是隨溫度漂移。新晶片若要融入現有生態,也必須提供清晰的方法,將現有模型與程式架構映射到硬體上,否則大規模重寫軟體棧(Software stack)的成本可能會抹去任何節能優勢。此外,從良率、製造到長期穩定性,這類晶片仍未經歷資料中心的真實運行考驗。多位評論者也指出,小規模模擬中的萬倍節能,並不能自動外推到龐大、異構、對精度極敏感的生產環境。

因此,更理性的解讀方式是雙重的,一方面,應以開放的熱情看待其潛能,熱力學運算為概率型AI問題提供了一條自然的低能耗途徑;另一方面,應以嚴格的科學態度要求實證,可重複的公開基準、端到端系統測試與長期穩定資料,才是從概念走向突破的真正門檻。

對產業而言,最務實的策略應是雙軌並行,繼續依賴GPU與數位加速器優化能效,同時保留一部分研發資金投注在概率硬體的長期試驗上,政策與監管機構則應推動跨平台的能源效率基準與透明數據,以避免市場被「萬倍」這類尚未驗證的口號所誤導。

或許,有朝一日,若Extropic的構想能在真實負載下穩定運行,那句「不是讓機器跑得更快,而是讓它更像生命」將不再只是科幻式比喻,而是能成為工程公式的一部分,指引著產業通往低能耗、高效率、概率型AI的下一個現實方向。