AI圈最昂貴的“閑置物品”誕生了:價值數十億美元的英偉達頂級GPU,正躺在微軟的倉庫里吃灰。
原因簡單到令人難以置信:沒電。
就在最近,微軟CEO薩蒂亞·納德拉(Satya Nadella)和OpenAI首席執行官薩姆·奧特曼(Sam Altman)一同做客Brad Gerstner的《BG2》播客訪談節目,罕見地“自曝家丑”,親口證實了這個令人震驚的窘境:
“我們現在最大的問題,不是算力,而是電力……事實上,我有一堆芯片堆在庫存里,卻沒電可用。”
此言一出,市場皆驚。當所有公司還在為搶不到芯片而焦慮時,手握海量GPU的微軟卻遇到了一個更根本的難題:找不到足夠的“插座”。
從“算力荒”到“電力荒”,AI的狂飆突進,似乎撞上了物理世界最堅硬的一堵墻。
![]()
芯片堆滿庫房,卻找不到“插座”
長期以來,科技界普遍認為“算力”是阻礙AI發展的最大壁壘。因此,微軟、OpenAI等公司一直在瘋狂采購GPU。
但現在看來,他們似乎跑得太快了。
納德拉在播客中坦言,微軟訂購的芯片數量,顯然已經超過了他們合同所能確保的電量。
“在這種特殊情況下,你根本無法預測需求和供應的周期,”納德拉說,“我們最大的問題是電力,是能否在靠近電源的地方快速建成數據中心。”
所謂“暖殼”是商業地產術語,指的是那些基礎設施齊全、能讓租戶“拎包入住”的建筑。換句話說,微軟現在是芯片管夠,但缺“帶電的房子”。
這不僅是納德拉的個人觀點。微軟首席財務官艾米·胡德(Amy Hood)在上周的財報電話會議上也向分析師證實:獲取計算硬件一直都不是微軟的瓶頸,“我們缺的是空間和電力”。
她甚至補充表示:“這種局面已經持續好幾個季度了。我原以為我們能趕上,但沒有。需求還在增長。”
財報數據顯示,微軟在2026財年第一季度投入111億美元用于租賃數據中心。僅2025年一年,微軟在全球就新增了約2吉瓦的算力容量,使其數據設施總數突破400座。
TD Cowen上月發布的報告表明,2025年第三季度,美國超大規模企業租賃的數據中心容量已超過2024年全年總量。雖然大部分增幅來自甲骨文和OpenAI,但谷歌、Meta、微軟、亞馬遜及Anthropic的算力也顯著增加。
同樣于上月發布的標普全球報告則指出,到2025年底,全美數據中心對電網電力的需求將較2024年增長22%,而至2030年,這一數字將增長兩倍。
AI“吃電”太猛,軟件巨頭遭遇“硬”挑戰
為什么會出現這個局面?
答案很簡單:相比于大型發電廠等重資產,芯片和代碼都是易于快速擴展和部署的技術。已經習慣這兩種技術的科技公司,卻一頭撞上了能源世界的“南墻”。
在過去十幾年里,美國的電力需求與供給基本持平。但過去五年,數據中心的電力需求開始飆升,增速遠遠超過了公共事業公司規劃新發電能力的速度。
這種趨勢已導致民用能源費用飆升,顯示出AI基礎設施建設正在對普通民眾產生負面影響。為此,OpenAI甚至已呼吁聯邦政府每年新建100吉瓦的發電能力,并稱這是美國在與中國的AI競賽中保持優勢的戰略資產。
這也迫使數據中心開發商開始尋求“電網外”的解決方案,即跳過公共電網,將電力直接輸送到數據中心。
一同參與播客對話的奧特曼認為隱患正在醞釀:如果AI繼續以“每年將單位智能的成本降低40倍”的驚人速度發展,那么“從基礎設施建設的角度來看,這種指數級變化確實令人心驚。”
這位OpenAI掌門人,早已將目光投向未來能源領域。他個人投資了核裂變初創公司Oklo、核聚變初創公司Helion,還有一家名為Exowatt的太陽能初創公司。
越便宜,越饑渴:AI的“無限”胃口
盡管太陽能光伏技術因為成本低、部署快、零排放,正被科技公司爭相采納,但它和數據中心一樣都需要建設時間。事實上,現在下的新燃氣輪機訂單,很可能要到這個十年末才能交付。
而AI的需求變化,比任何一個項目的完工速度都要快得多。
奧特曼承認,如果AI能效提升或需求增長不及預期,部分企業可能會面臨發電設施閑置的困境。
但他本人似乎是“杰文斯悖論”(Jevons Paradox)的堅定信徒。該理論認為,資源使用效率的提升反而會導致用量增加,從而推高總體需求。
“假設明天,每單位智能的計算價格下降了100倍,”奧特曼說,“你會發現使用量的增長遠不止100倍。許多在當前成本下不具經濟可行性的算力應用,屆時都將迎來爆發。”
換句話說,AI越便宜、越高效,世界對它的需求就越龐大,對電力的渴求也就越趨近于無限。
真正的風險:能源革命與本地化計算
然而,能源供給的發展變化也讓所有AI從業者面臨著巨大風險。未來的能源革命或許會讓當下的大規模電力投資付諸東流。
正如奧特曼在談話中所警告的:“如果某種非常便宜的能源形式很快實現大規模應用(比如核聚變),那么很多簽了現有昂貴電力合同的企業將會遭受重創。”
這場對話還揭示了押注超大規模AI數據中心必須面對的另一顆“定時炸彈”:本地化計算的崛起。
![]()
奧特曼暢想:“總有一天,我們會打造出一款革命性的消費設備,可以在本地以低功耗運行GPT-5或GPT-6級別的模型。”
如果AI模型真的可以在個人電腦或手機上實現本地化高效運行,那么科技巨頭們斥資數十億、數百億建造的龐大AI數據中心,其推理需求可能根本不會兌現。
播客主持人也隨即評論:“這確實很了不起,但顯然也會讓那些投入巨資建設集中式算力集群的企業感到擔憂。”
到那時,這種情況可能加速人工智能泡沫的破裂。而當泡沫破滅時,暴露在風險之下的將是高達近20萬億美元的恐怖市值。
從“算力荒”到“電力荒”,AI發展顯然已經步入了深水區。微軟倉庫里那些無法點亮的昂貴芯片,或許只是這場巨大轉型陣痛的開始。(辰辰)
