12月24日,平安夜。
當矽谷大部分人都在享受假期時,CNBC突然爆出一條震撼消息:全球市值第一的Nvidia斥資200億美元,收購AI晶片新創Groq。
200億美元是什麼概念?這是Nvidia有史以來最大的單筆交易,是2019年收購Mellanox的三倍左右。更誇張的是,Groq在今年9月的估值才69億美元,三個月不到,身價暴漲近三倍。
但幾小時後,Groq發文澄清:這不是「收購」,而是「技術授權協議」。
真相逐漸浮出水面:
Nvidia用200億美元買走的,不是一家公司,而是一個團隊。主要成員是曾參與Google TPU設計的Jonathan Ross以及工程團隊,還有他手上那個能讓推論速度快10倍、能耗降90%的LPU晶片技術。
這或許是黃仁勳對於近期GPU與TPU之爭的最直接回應。
大學輟學的天才,打造了Google的秘密武器TPU
要理解這筆交易的價值,必須先認識Jonathan Ross這個人。
從大學輟學到頂尖計算機科學研究中心
Jonathan的經歷堪稱傳奇。他從大學輟學,卻靠自學和旁聽課程,最終進入紐約大學Courant Institute——全球頂尖的數學和計算機科學研究中心。
Jonathan在這過程中不僅掌握了深度學習的理論基礎,更重要的是,他學會了一種思維方式:如何為特定的計算任務設計專用硬體架構。
這個思維方式,後來改變了AI晶片的歷史。
「20%項目」催生的TPU革命
2011年,Jonathan加入Google。在那裡,他發起了一個最初只是「20%項目」的內部創新計劃——Google允許員工用20%的時間做自己感興趣的事。
Jonathan的想法很簡單:GPU是為圖形渲染設計的,為什麼我們要用它來做AI運算?為什麼不專門為AI設計一個晶片?
這個想法後來演變成廣為人知的Tensor Processing Unit(TPU)——Google為AI工作負載量身打造的專用晶片。
Jonathan親自設計並實現了第一代TPU的核心架構。這個晶片有多重要?它讓Google在AI訓練和推論上,不再完全依賴Nvidia的GPU,打破了Nvidia在AI晶片市場的壟斷地位。
2016年,AlphaGo擊敗李世乭,震驚世界。而驅動AlphaGo的,正是Jonathan參與設計的TPU。
2016年出走:從Google到Groq
就在TPU開始嶄露頭角的時候,Jonathan做了一個令人意外的決定:離開Google,創立Groq。
他帶走了一群前Google工程師,都是TPU的核心班底。
Jonathan想做的,不是再造一個TPU,而是要解決一個更大的問題:當AI從訓練走向應用,當推論成為主要工作負載,什麼樣的晶片才是最優解?
這個問題的答案,就是Groq LPU。
LPU:重新定義推論的遊戲規則
2024年初,當Groq首款LPU亮相時,整個AI圈都震驚了。
500 token/秒:秒殺ChatGPT的速度
測試結果令人難以置信:Groq一秒可以輸出500個token,是當時世界上速度最快的LLM推論系統。
什麼概念?ChatGPT的回覆速度大約是20-40 token/秒。Groq直接快了10倍以上。
更誇張的是成本和能耗:
- 單卡價格:2萬美元(比高階GPU便宜)
- 推論速度:比Nvidia GPU快10倍
- 能耗:只有傳統方案的1/10
這意味著,在推論任務上,Groq LPU能以更低的成本、更快的速度、更少的能耗,提供遠超GPU的性能。
TISC架構:避開GPU的致命缺陷
Groq的突破源於一個根本性的洞察:
GPU是為圖形渲染設計的,它的架構並不適合AI推論。
傳統GPU需要頻繁地從高頻寬記憶體(HBM)中載入資料。這就像是一個廚師,每做一道菜都要跑到倉庫去拿食材,來回跑的時間比做菜的時間還長。
Groq開創了一種全新的架構:時序指令集計算機(Temporal Instruction Set Computer,TISC)。
這個架構的核心思想是:讓資料流動起來,而不是讓運算單元去追資料。
具體來說:
- 無需像GPU那樣依賴HBM,避免了記憶體瓶頸
- 每個時鐘週期都能被有效利用,沒有等待時間
- 延遲穩定在個位數毫秒,遠優於GPU的數十毫秒
更重要的是,Groq實現了多個TSP(Tensor Streaming Processor)的無縫鏈接。這意味著,隨著更多LPU的加入,性能可以線性擴展——加10張卡,性能就提升10倍,沒有GPU集群常見的通訊瓶頸。
如果把GPU比作是一群各自為政的將軍,Groq LPU就是一支訓練有素的軍隊,每個士兵都知道自己該在什麼時候做什麼事。
黃仁勳的推論焦慮
那麼,Nvidia為何要在此時出手?答案藏在黃仁勳今年初的一句話裡。
「推論需求將增長十億倍」
2025年初,黃仁勳在採訪中說:「推論需求未來將增長高達十億倍。」
這不是隨口說說。數據支撐了他的判斷:
根據OpenRouter×a16z分析2025年100兆tokens的「AI現狀」研究,目前經推理優化的模型承載的token佔比已超過50%,成為高價值任務的預設選項。
更關鍵的是,AI正在從「單次生成」轉向「推理時計算」(Inference-time Compute)。OpenAI的o1模型、DeepSeek R1等推理模型,會在回答前進行長時間的「思考」(推論),這讓推論算力需求進一步暴增。
AI的主戰場,正在從「訓練」轉向「推論」。
訓練壟斷,推論受困
問題是,Nvidia在這兩個戰場的處境截然不同。
- 訓練市場:Nvidia GPU幾乎壟斷,市佔率超過80%。
- 推論市場:面臨Google TPU、AMD、專用ASIC的圍剿,GPU的優勢正在消失。
為什麼?因為訓練和推論是兩種完全不同的計算任務。
訓練需要大量並行運算、高頻寬記憶體,GPU在這方面無人能敵。但推論需要的是低延遲、高吞吐、能耗效率——這正是GPU的弱點,卻是TPU、LPU等專用晶片的強項。
更糟的是,Google的TPU正在崛起。隨著Google Gemini和Ironwood TPU的發布,Google在推論市場的表現越來越強勢。市場上甚至出現了「Google vs Nvidia」的生態分化。
黃仁勳意識到,如果不在推論市場補齊短板,Nvidia可能會重蹈Intel的覆轍——在舊時代的優勢,成為新時代的包袱。
200億美元的防禦性收購
這就是Nvidia收購Groq的真正原因。
黃仁勳在交易後向員工發送的內部郵件(被CNBC曝光)中,直接點明了戰略意圖:
我們計劃將Groq的低延遲處理器整合到Nvidia的AI工廠架構中,以服務更廣泛的AI推論和即時工作負載。
關鍵字:推論、低延遲、即時工作負載。
這是一步防禦性收購:
- 拿下Groq的LPU技術,補齊推論端的缺點
- 挖走Jonathan Ross——Google陣營裡最懂專用晶片設計的人
- 阻止Groq成為下一個威脅Nvidia的「推論之王」
Nvidia不是在買一家公司,而是在買未來的門票。
科技巨頭的新玩法:「Acqui-hire」
Nvidia收購Groq,並非孤例。過去兩年,科技巨頭掀起了一波「Acqui-hire」(人才收購)浪潮。
為何流行?
傳統併購流程漫長,監管審查嚴格。尤其是反壟斷法日益收緊的今天,任何大型交易都可能耗時數年。
但「Acqui-hire」妙就妙在:
- 名義上不是「收購」:而是「技術授權」或「合作」
- 原公司繼續運營:降低監管風險
- 快速拿到核心資產:技術和人才,幾個月就能到位
這就像是包養一個明星工作室,而不是直接買下整個演藝公司。
2024-2025年重大案例
2024年3月:微軟×Inflection(6.5億美元)
- 挖走Mustafa Suleyman(DeepMind聯合創始人)和核心團隊
- Inflection的AI模型技術授權給微軟
2024年8月:Google×Character.AI(27億美元)
- 請回Transformer論文作者Noam Shazeer及30多人核心團隊用於強化Gemini
2025年6月:Meta×Scale AI(150億美元)
- 挖走創辦人和核心工程師團隊
- Scale AI裁員,調整業務方向
2025年7月:Google×Windsurf(24億美元)
- 挖走Varun Mohan和Douglas Chen及研發團隊
- 幾個月後推出AI編程工具Antigravity
下一個目標是誰?
Intel正在洽談收購SambaNova:
- Intel CEO陳立武曾擔任SambaNova執行董事長
- 已簽不具約束力的意向書
Cerebras撤回IPO,完成10億美元融資:
- 原計劃上市,10月突然撤回
- 是否在等待被收購?
這波Acqui-hire浪潮背後的邏輯很清楚:在AI時代,頂尖人才是最稀缺的資源,誰掌握了人才,誰就掌握了未來。
推論時代的降臨
Nvidia史上最大的交易,傳遞了一個清晰的訊號:
AI的黃金時代,正在從「訓練」轉向「推論」。
從Scaling Law到推論優化
吳恩達(Andrew Ng)曾明確指出:「訓練基礎設施護城河脆弱,推論算力供不應求。」
為什麼?因為訓練是一次性投資,推論是持續性消耗。
訓練一個GPT-4級別的模型,可能需要幾千萬美元、幾萬張GPU、幾個月時間。但訓練完成後,每一次使用者與ChatGPT對話,都是推論。每一次AI生成圖片,都是推論。每一次自動駕駛做決策,都是推論。
更重要的是,田淵棟(前Meta FAIR研究總監)的研究揭示:長思維鏈會改變Scaling Law。
「如果一個問題有很長的思維鏈,你就會讓模型的Scaling Law的曲線變得非常nice。我可以用1/10的樣本、1/10的參數,獲得更好的效果。」
這意味著,AI的未來不是訓練更大的模型,而是給模型更多時間「推論」。就像考試時給學生10倍的作答時間,一個中等大小的模型,如果讓它在回答前「思考」更久,表現就能超過一個「秒答的超大模型」。
從「注意力經濟」到「意圖經濟」
這不只是技術路線的轉變,更是商業模式的重構。
從Perplexity到豆包手機,從OpenAI成立AAIF推動Agent標準化,到馬斯克預言「手機將不再有App」——這些都指向同一個方向:從「注意力經濟」到「意圖經濟」。
在注意力經濟時代,平台靠用戶停留時長賣廣告。在意圖經濟時代,AI Agent直接完成任務,用戶不再需要打開App、瀏覽廣告、被演算法餵養。
這背後靠的,就是強大的推論能力。
推論,是AI時代的新石油
12月24日的這筆交易,不只是一個商業新聞,更是一個時代的註腳。
當黃仁勳說「推論需求將增長十億倍」,他看到的是一個全新的市場。訓練市場的規模可能有天花板,而推論市場才剛剛開始。
Groq LPU能以10倍的速度、1/10的能耗完成推論任務。這不是漸進式的改良,而是範式級的創新。Nvidia花200億美元買下Jonathan Ross和他的團隊,就是要確保自己在這個新時代不會掉隊。
而對投資者、創業者、技術從業者來說,這個訊號再清楚不過:
推論,是AI時代的新石油。誰掌握了推論的效率,誰就掌握了未來。
延伸閱讀:
從擴展定律到世界模型,人工智慧模型演進的下一個商機
從 Perplexity 到豆包手機,「注意力經濟」到「意圖經濟」的市場重構
*本文獲作者授權轉載,原文:NVIDIA 豪擲 200 億美元挖走 Groq 團隊:黃仁勳對於推論時代的豪賭
責任編輯:林易萱