在《All-In Podcast》特別集數中,輝達(NVIDIA)執行長黃仁勳與幾位重量級矽谷投資人展開了一場深度對話。這場對話不僅揭示了輝達如何從一家晶片供應商蛻變為驅動全球運算的底層引擎,更為我們勾勒出未來五到十年的科技發展藍圖。

從代理人(Agent)的崛起、實體機器人的「三台電腦」理論,到外界最關心的AI基礎設施算力成本與地緣政治風險,黃仁勳都給出了極具啟發性的解答。以下是這場訪談的深度解析,並結合GTC 2026最新發布的資訊進行交叉驗證。

重新定義輝達:從AI工廠作業系統到Vera Rubin平台

過去幾年,媒體習慣將輝達貼上「最強GPU硬體製造商」的標籤,但黃仁勳的戰略視野早已跨越單一硬體。他提出了一個極具野心的概念:「AI工廠的作業系統」(Operating System of the AI Factory),並將其命名為「Dynamo」。

「我們現在正在做的,就像是當年西門子發明將水力轉化為電力的發電機(Dynamo)一樣。輝達的任務,是將龐大的數據轉化為人工智慧這個新時代的電力。」黃仁勳如此比喻。這個類比背後有其深意:正如電力的普及徹底改變了工業生產的基礎架構,AI算力的民主化也正在重塑每一個產業的運作方式。

在技術架構上,黃仁勳特別強調了「解耦推論」(Disaggregated Inference)的趨勢。未來的運算中心不再是單一巨型GPU單打獨鬥,而是走向高度異質化運算(Heterogeneous Computing)。他預測,未來的資料中心可能會將約25%的空間分配給特定的加速器組合,讓最適合的晶片處理最對應的工作負載。這種架構上的靈活性,正是輝達從「賣晶片」轉向「賣平台」的關鍵轉折。

GTC 2026的發布完美驗證了這個方向。輝達正式推出Vera Rubin運算平台,這是Blackwell的繼任者,從底層就為推論與代理人工作負載而設計。該平台將七種晶片整合進五個機架級電腦中,作為單一AI超級電腦運作:Vera CPU、Rubin GPU、NVLink 6交換器、ConnectX-9網卡、BlueField 4 DPU、Spectrum-X共封裝光學網卡,以及Groq 3 LPU。規格令人咋舌:3.6 exaflops運算能力與每秒260 TB的全對全NVLink頻寬。整套系統採用100%液冷散熱,安裝時間從兩天縮短至兩小時。

這個平台的發布不只是輝達自說自話。Anthropic 執行長 Dario Amodei 表示:「企業和開發者正在將 Claude 用於日益複雜的推理、代理人工作流程和關鍵決策,這需要能跟上步伐的基礎設施。NVIDIA 的 Vera Rubin 平台為我們提供了持續交付所需的算力、網路和系統設計。」OpenAI 執行長 Sam Altman 也回應:「NVIDIA 基礎設施是讓我們持續推進 AI 前沿的基石。有了 Vera Rubin,我們將能以大規模運行更強大的模型和代理人,為數億用戶提供更快、更可靠的系統。」當兩大 AI 實驗室的領導人同時為同一個硬體平台背書,這本身就說明了輝達在產業中無可取代的地位。

從技術規格來看,Vera Rubin NVL72 整合了 72 顆 Rubin GPU 和 36 顆 Vera CPU,透過 NVLink 6 連接。與 Blackwell 平台相比,訓練大型混合專家模型(MoE)僅需四分之一的 GPU 數量,推論每瓦吞吐量提升 10 倍,每個 Token 的成本降至十分之一。這種量級的效率躍進,正是黃仁勳所說「工廠成本上升但 Token 成本暴跌」的硬體基礎。

值得特別關注的是Groq 3 LPU的加入。輝達在2025年底收購了Groq團隊及其技術,這款專為推論打造的晶片採用確定性、靜態編譯架構,擁有大量片上SRAM,特別擅長推論中的解碼階段。透過Dynamo軟體層,系統將預填充工作分配給Vera Rubin,解碼工作交給Groq晶片,實現了比單獨使用Blackwell高出35倍的每兆瓦吞吐量。這正是黃仁勳口中「解耦推論」的最佳實踐——不同的晶片各司其職,協同運作。

更值得注意的是,黃仁勳還預告了2028年的Feynman架構路線圖,包括新GPU、與Groq團隊共同開發的LP40 LPU、Rosa CPU、BlueField 5,以及採用共封裝光學的Kyber-CPO擴展方案。輝達甚至在開發用於軌道資料中心的Vera Rubin Space-1。每年一個新架構、完全向下相容的節奏,讓安裝運行越久,有效成本越低——這是典型的平台鎖定策略。

財務數據背後的結構性需求

要理解黃仁勳為何如此篤定AI基礎設施的前景,看看輝達的財報就夠了。截至2026財年(結束於2026年1月),輝達全年營收達到2,159億美元,淨利潤高達1,201億美元,營業利潤率超過60%。這些數字背後反映的不只是一家企業的成功,而是整個產業對AI算力需求的結構性暴增。

進一步拆解財報數據:2026 財年第四季(截至 2026 年 1 月 25 日)單季營收達到創紀錄的 681 億美元,較上季成長 20%,較去年同期暴增 73%。GAAP 毛利率達 75.0%,單季淨利潤 430 億美元。這意味著輝達在短短三個月內賺取的利潤,已經超過許多 Fortune 500 企業的全年營收。更令人注目的是 2027 財年第一季的營收展望:780 億美元(正負 2%),且黃仁勳特別強調「展望中並未計入來自中國的資料中心運算營收」。這個保守假設反映了地緣政治現實,但也意味著一旦中國市場有任何鬆綁,營收還有額外的上升空間。

更值得關注的是,黃仁勳在GTC 2026上將AI運算需求的展望從「2026年前5,000億美元」上調至「2027年前1兆美元」,驅動力來自推論需求的拐點。這個數字的跳升幅度堪稱驚人,但從輝達的客戶行為來看並非毫無根據:全球科技巨頭們的AI資本支出正在以前所未有的速度增長,微軟、Google、亞馬遜、Meta的年度AI投資均已突破數百億美元大關。

在GPU市場的壟斷地位更是穩固。截至2025年初,輝達在桌面與筆電獨立顯示卡市場佔有率高達92%,在AI訓練與部署用GPU市場的佔有率更超過80%,同時為全球TOP500超級電腦中超過75%的系統提供晶片。這種市場主導地位意味著,無論哪家科技巨頭要建造AI資料中心,幾乎都繞不開輝達的生態系統。而CUDA生態系統邁入20週年,數億CUDA GPU的裝機量形成了自我強化的飛輪效應:新演算法催生新市場,新市場擴大裝機量,裝機量吸引更多開發者。

代理人的崛起:從被動對話到自主執行

如果說2022年底由ChatGPT引爆的是大型語言模型的元年,那麼2025至2026年無疑是「代理人AI(Agentic AI)」爆發的關鍵時期。節目中,幾位主持人與黃仁勳都同意,生成式AI的價值正在從單純的「生成文本」轉向「解決問題」。

傳統AI是被動的——使用者提問,模型回答。但代理人系統是一個質的飛躍:它具備短期與長期記憶,能夠呼叫外部API與工具,甚至能與其他代理人互相除錯與協作。這不再是「聊天機器人」,而是「數位員工」。

黃仁勳在訪談中分享了一個令人震撼的內部案例:「我們在週末讓一個名為Auto-research的代理人系統運行了90分鐘。結果它不僅自行梳理了龐大的開源程式碼庫,最後還產出了一篇通常需要博士生耗費七年才能完成的高水準論文。」這個案例之所以重要,不在於它取代了某個博士生,而在於它展示了AI代理人在複雜、多步驟任務中的自主執行能力。

GTC 2026將這個願景推向了具體的產品化。輝達發布了NemoClaw——一個企業級的代理人AI參考架構,黃仁勳將其比作AI領域的Linux。NemoClaw建立在開源框架之上,但加入了企業所需的安全性、合規性與部署能力。搭配最新的Nemotron 3多模態模型,以及針對金融服務、醫療、工業、電信等九大垂直產業的客製化開源模型,輝達正在建構一個讓AI代理人可以在各行各業落地的完整生態系。

這裡有一個值得深思的商業策略:輝達大規模開放模型,未來五年投入260億美元於開源AI計畫。正如Next Platform的分析所指出,輝達或許是唯一一家負擔得起免費送出模型的公司,因為它可以從AI系統的硬體銷售中回收營收。這對Meta的Llama等競爭對手構成了獨特的壓力——當模型本身不再是利潤中心,而是硬體銷售的引流工具時,遊戲規則已經徹底改變。

他大膽預言,未來的企業軟體將演化成「虛擬員工」。軟體產業將湧現數以百萬計的AI代理人,在後台自動處理SQL查詢、資料庫檢索,甚至編寫與部署程式碼。這對SaaS產業的衝擊將是根本性的:當軟體不再是「工具」而是「勞動力」時,整個定價模型和商業邏輯都需要重新思考。按人頭收費的訂閱制,可能會被按任務量或產出價值計費的模式所取代。根據NVIDIA Blog在2026年初發布的報告,企業已經將AI從實驗階段推進到全面部署,涵蓋程式開發、法務、財務、行政支援等多個領域。

黃仁勳在 GTC 2026 的媒體問答中給出了一個更具體的預測:十年後,輝達將擁有約 75,000 名員工(幾乎是目前 42,000 人的兩倍),而這些員工將與 750 萬個 AI 代理人協同工作——人機比例為 1:100。「這 75,000 名員工會非常忙碌,」黃仁勳笑著說,「他們將與 750 萬個代理人一起工作。這些代理人會全天候運轉,所以希望我們的人不需要跟上它們的節奏。」這個願景不僅限於輝達自身。GTC 上同步發布的 NVIDIA Agent Toolkit 開放代理人開發平台,讓 Adobe、Palantir、Cisco 等企業都能建構和運行自己的代理人艦隊。

市場數據也支持這個趨勢的加速。根據 2025 年 11 月 McKinsey 的調查,62% 的組織至少已在實驗 AI 代理人。McKinsey 本身就有約 25,000 個 AI 代理人與其 40,000 名員工並肩工作。而 NVIDIA 2026 年初發布的「AI 產業現況報告」(State of AI 2026)顯示,全球超過 3,200 家企業受訪,64% 的受訪企業已在積極使用 AI,北美地區更高達 70%。大型企業(超過 1,000 名員工)的採用率則達到 76%。Accenture 執行長 Julie Sweet 甚至表示,未能採用 AI 的員工可能會在升遷考核中受到影響。這些數據共同指向一個事實:企業 AI 代理人的採用已經從「實驗階段」快速進入「規模化部署」。

實體AI與機器人革命:從理論框架到大規模部署

數位世界的AI固然迷人,但黃仁勳認為下一個真正的殺手級應用是「實體AI」(Physical AI)——讓AI具備理解並與物理世界互動的能力。要實現這場機器人革命,他提出世界上需要「三台電腦」來協同運作。

第一台是訓練電腦(Training Computer),位於雲端,負責消化海量數據,開發AI的基礎模型。第二台是模擬電腦(Omniverse),這是輝達真正的護城河。黃仁勳強調:「在將AI放入實體機器人之前,你必須先讓它在一個完全遵守物理定律的虛擬健身房(Virtual Gym)中進行無數次測試與跌倒。」第三台是邊緣電腦(Edge Computer),也就是機器人本身的車載或機載大腦,負責即時推論與反應。

GTC 2026讓這套理論框架徹底落地。根據TrendForce的分析,輝達將Cosmos世界模型、Isaac機器人開發框架與GR00T系列機器人基礎模型整合為一個完整的實體AI平台。透過Omniverse數位孿生和Isaac模擬環境,開發者可以在虛擬場景中訓練並驗證機器人策略,再部署到真實系統中,大幅降低開發成本與風險。ABB、FANUC、KUKA等主要工業機器人製造商已採用這些技術,縮小模擬與現實之間的差距。

在人形機器人領域,GTC 2026推出了更多面向商業化的工具。GR00T N1.7已開放早期存取並提供商業授權,具備先進的靈巧控制能力,適用於量產機器人。Isaac Lab 3.0建立在全新的Newton物理引擎1.0之上,新增了用於物理模擬和複雜靈巧任務的強化學習功能,支援在DGX級基礎設施上進行大規模機器人訓練。1X、AgiBot、Agility、Boston Dynamics、Figure、Hexagon Robotics等主要業者均已採用Cosmos、Isaac Sim和Isaac Lab進行開發與驗證。

更值得關注的是輝達正在建構的晶片與機電一體化生態系統。英飛凌(Infineon)將其PSOC和AURIX MCU整合進NVIDIA Holoscan Sensor Bridge,實現高效安全的精密運動控制;恩智浦(NXP)以i.MX 95處理器和S32J TSN交換器提供全身數據處理與低延遲網路;德州儀器(TI)則將毫米波雷達整合進Jetson Thor平台,讓機器人在濃霧和低光環境中也能安全感知周遭。輝達的處理器作為「大腦」,歐洲廠商提供關鍵的「身體」零件,形成互補架構。

展望未來,輝達計劃在2026年底前推出GR00T N2模型,基於自研的DreamZero World Action Model架構,預計在陌生環境中執行新任務的成功率將比現有視覺語言行動模型提升一倍以上。輝達還將實體AI擴展至醫療機器人領域,與手術機器人製造商合作整合AI和模擬技術,以提升精準度和安全性。黃仁勳重申輝達「不會親自下場製造機器人」,而是致力於成為全球汽車製造商和機器人公司的底層算力與大腦提供者,同時在GTC上展示了110台機器人以及迪士尼Olaf伴侶機器人作為實體AI的標誌性案例。

推論成本的經濟學:為什麼兆美元規模的投資反而划算

在節目的經濟學探討環節,主持人對目前科技巨頭們動輒數百億美元的AI資本支出提出質疑:這種燒錢速度是否會導致AI泡沫破裂?

黃仁勳給出了一個極具反直覺的經濟學解答:「外界總是把工廠的建造成本和產出Token的生成成本混為一談。」他進一步解釋,雖然前期基礎設施的投資看似天文數字,但因為新一代晶片的運算效率與吞吐量呈現指數級別的成長,實際上生成每一個Token的邊際成本正在斷崖式下降。

「假設你投資了500億美元建造一座最先進的資料中心,因為它的吞吐量是舊系統的10倍甚至幾十倍,它反而能為全世界產出成本最低的Token。」這個邏輯與雲端運算早期的規模經濟效應如出一轍:AWS最初的資料中心投資也曾被視為瘋狂,但規模效應最終讓亞馬遜成為全球最大的雲端服務商。

Vera Rubin平台的發布為這個論點提供了更具體的佐證。Semi Analysis的第三方分析確認,Vera Rubin每瓦產出的Token數量比Hopper H200高出約50倍。再加上Groq LPU的解碼加速,整體系統每兆瓦吞吐量比單獨使用Blackwell高出35倍。這意味著,雖然單座資料中心的建置成本持續攀升,但每個Token的邊際生產成本正在以更快的速度下降。

從輝達自身的財務數據來看,這個論述有堅實的數據支撐。當一家公司年營收超過2,100億美元、營業利潤率超過60%時,它的客戶顯然認為這筆投資是值得的。黃仁勳將AI運算需求展望上調至2027年前1兆美元,反映的正是這種經濟邏輯:運算成本的大幅下降,將會解鎖過去因為成本過高而無法實現的商業模式,這也是他堅信未來AI推論規模將爆發性成長百萬倍的根據。

數位生物學的ChatGPT時刻

在探討垂直領域應用時,黃仁勳對「數位生物學」(Digital Biology)展現了異常的熱情。他指出,生命科學正在經歷一場典範轉移,人類現在已經能夠將基因、蛋白質結構甚至細胞的運作機制,轉化為神經網路可以理解的「語言」。

「我們正處於數位生物學的ChatGPT時刻。」黃仁勳說道。這句話的分量不容小覷。回顧ChatGPT如何在短短兩年內重塑了整個軟體產業,如果類似的技術跳躍發生在藥物研發領域,其影響將更加深遠。

在未來三到五年內,AI將能精準預測蛋白質的3D結構、模擬複雜的化學反應,從而將新藥研發的週期從數年縮短至數月。2020年DeepMind的AlphaFold已經證明了AI在蛋白質結構預測上的突破性能力,而輝達正透過旗下的BioNeMo生成式AI平台,將這種能力商業化並推廣到整個製藥產業。在GTC 2026上,BioNeMo被列為輝達九大垂直產業開源模型之一,專注於數位生物學領域的前沿研究。此外,AI在放射科醫療影像的分析應用,不僅能大幅提升早期診斷的準確率,更是解決全球醫療人力嚴重短缺的關鍵解方。

這個領域的市場規模是驚人的。全球製藥產業每年的研發支出超過2,500億美元,如果AI能將藥物研發的成功率從目前不到10%提升到哪怕20%或30%,釋放出來的價值將以兆美元計。輝達在這個賽道上的佈局,可能是其最被低估的長期成長引擎。

破除末日論與直面供應鏈現實

訪談的尾聲,話題不可避免地轉向了地緣政治與AI安全。針對矽谷部分人士對AI可能產生自我意識並毀滅人類的「末日論」,黃仁勳態度堅定地予以駁斥。

「AI本質上就是電腦軟體,它不是外星人,也沒有自我意識。」他呼籲業界應該用對待傳統航太或金融軟體的嚴謹態度——例如嚴格的權限管控、沙盒機制與資安防護——來規範AI,而不是被科幻小說式的恐懼牽著鼻子走。

在開源與閉源的路線之爭上,他讚賞Anthropic在AI對齊(Alignment)與安全性上的貢獻,但也大力肯定Meta的Llama等開源模型對於建立全球AI生態系的絕對必要性。GTC 2026上輝達的行動更加清楚地表明了立場:黃仁勳宣稱「輝達現在處於每一個AI模型領域的前沿」,涵蓋Nemotron語言模型、Cosmos世界基礎模型、GR00T人形機器人模型、Alpamayo自動駕駛模型、BioNeMo數位生物學模型、Earth2 AI物理模型。這種務實的「兩條腿走路」立場,反映了輝達作為基礎設施提供者的獨特角色:無論開源還是閉源陣營贏了,都需要輝達的GPU。

然而,當主持人問及供應鏈脆弱性時,黃仁勳展現了務實的一面。他坦承輝達目前高度依賴台積電與亞洲的製造生態系。面對台海局勢的潛在不確定性,輝達正在積極推動供應鏈多元化,並大力支持在美國本土建立晶圓廠。但他也留下了一個尚未完全解答的現實難題:「重建一條完整且良率達標的半導體供應鏈,需要極長的時間與龐大的資源。這不僅是單一企業的挑戰,更是美國國家戰略層級的嚴峻考驗。」值得一提的是,輝達甚至在開發用於軌道資料中心的太空運算方案——這或許暗示著,當地球上的地緣政治風險持續升高,太空可能成為另一種形式的「供應鏈多元化」。

事實上,2026 年初的出口管制態勢出現了微妙的變化。根據 East Asia Forum 3 月 11 日的分析,川普政府正在公開淡化晶片管制議題,同時悄然批准向中國出口更高階的晶片,並暫停進一步收緊管制。這與前任政府層層加碼的做法形成鮮明對比。然而,國會鷹派並未鬆手——2 月 11 日,路透社報導多位國會議員正推動堵住晶片製造設備出口的漏洞,因為中國在先進製程上似乎正取得突破。行政部門的務實與立法部門的強硬之間的張力,讓半導體地緣政治的走向充滿變數。與此同時,伊朗戰事的升溫更進一步分散了美國的外交資源。川普原定 3 月 31 日訪問北京的行程已於 3 月 17 日無限期推遲,使得中美之間圍繞關稅、晶片、台灣等核心議題的談判全面擱置。這些地緣政治的連鎖反應,意味著輝達的供應鏈多元化策略不僅是未雨綢繆,更是迫在眉睫的商業必要。

結語:算力即權力,平台即護城河

綜觀這場訪談與GTC 2026的發布,黃仁勳傳達的核心訊息其實只有一個:在AI時代,算力就是基礎設施,而輝達要成為這個基礎設施的作業系統。從數位AI代理人到實體機器人,從資料中心到數位生物學,輝達正在每一條可能爆發的賽道上鋪設自己的底層平台。

這種「平台策略」的威力在於,它讓輝達從一家依賴產品週期的硬體公司,轉型為一家擁有生態系統鎖定效應的平台企業。當全球最大的雲端服務商、車廠、藥廠和機器人公司都在輝達的CUDA生態系上開發應用時,轉換成本已經高到幾乎不可能。Vera Rubin平台的每年迭代、完全向下相容策略,更進一步加深了這條護城河——客戶安裝運行的時間越長,有效成本越低,離開的動機就越小。

GTC 2026還透露了一個更深層的訊號:輝達正在從「提供算力」轉向「定義智慧」。當它同時擁有最強的硬體平台、最完整的軟體堆疊、以及涵蓋各領域前沿的開源模型時,它已經不只是AI產業鏈中的一環,而是整個生態系的引力中心。對投資者而言,真正需要關注的不是輝達下一季的GPU出貨量,而是它能否持續將這種平台優勢延伸到每一個新興的AI應用場景。從目前的跡象來看,黃仁勳不只是在贏得這場賽局——他正在定義賽局本身的規則。

對於關注科技產業的觀察者而言,這場訪談與 GTC 2026 的最大啟示或許在於:我們正在見證一場從「軟體定義一切」到「算力定義一切」的典範轉移。過去十年,雲端運算與 SaaS 模式讓軟體成為商業世界的通用語言;未來十年,AI 推論算力將成為比雲端更底層、更不可或缺的基礎設施。而輝達,正以其獨特的硬體平台、軟體堆疊與開源模型三位一體的策略,試圖在這場典範轉移中佔據不可撼動的中心位置。無論你是投資者、創業者還是技術從業者,理解這個結構性變化的深度與速度,將是未來數年最重要的認知投資。

原始連結:All-In Podcast - Jensen Huang Live