NVIDIA與OpenAI各斥資200億美元佈局AI推理晶片市場,Cerebras遞交IPO申請估值350億美 […] 〈兩個200億美元:OpenAI和Nvidia在打「推理戰爭」〉這篇文章最早發佈於動區BlockTempo《動區動趨-最具影響力的區塊鏈新聞媒體》。NVIDIA與OpenAI各斥資200億美元佈局AI推理晶片市場,Cerebras遞交IPO申請估值350億美 […] 〈兩個200億美元:OpenAI和Nvidia在打「推理戰爭」〉這篇文章最早發佈於動區BlockTempo《動區動趨-最具影響力的區塊鏈新聞媒體》。

兩個200億美元:OpenAI和Nvidia在打「推理戰爭」

2026/04/18 17:45
閱讀時長 10 分鐘
如需對本內容提供反饋或相關疑問,請通過郵箱 crypto.news@mexc.com 聯絡我們。
NVIDIA與OpenAI各斥資200億美元佈局AI推理晶片市場,Cerebras遞交IPO申請估值350億美元。這場爭奪AI算力未來控制權的無聲戰爭,正重塑價值數千億美元的科技市場格局。本文源自華爾街見聞,由PANews整理報導。 (前情提要:輝達財報營收成長114%超預期,黃仁勳為何不畏 DeepSeek 衝擊?) (背景補充:《經濟學人》喊:2025是「AI Agent」時代,但須注意三點困難)   2025年12月,NVIDIA悄悄花了200億美元買下了一家叫Groq的AI晶片公司。 2026年4月17日,OpenAI宣布將向另一家AI晶片公司Cerebras購買超過200億美元的晶片。同一天,Cerebras正式向納斯達克遞交IPO檔案,目標估價350億美元。 兩筆錢,金額幾乎完全相同。一筆是收購,一筆是購買。一筆來自全球最大的AI晶片賣家,一筆來自全球最大的AI買家。 這不是兩件獨立的事,這是同一場戰爭裡的兩個對稱動作。戰場的名字叫:AI推理。 絕大多數人沒注意到這場戰爭。因為它沒有爆炸聲,只有一行行財務公告,和矽谷工程師圈裡流傳的技術討論。但它的影響可能比過去兩年任何一次AI發布會都要深遠——因為它在重新分配一個幾乎確定會成為史上最大科技市場的控制權。 推理是什麼,為什麼2026年的關鍵字不再是”訓練” 在講兩個200億之前,需要先理解一個背景:AI晶片的戰場,正在發生一次重心遷移。 訓練和推理,是AI算力消耗的兩個階段。訓練是造模型-把海量資料餵給神經網路,讓它學會某種能力。這個過程通常只會發生一次,或定期更新。推理是用模型-每次使用者發出一個問題,ChatGPT給一個回答,背後就是一次推理請求。 2023年,全球AI算力支出的大頭在訓練,推理是配角。 但這個比例正在快速倒置。 根據德勤和CES 2026的市場研究資料,2025年推理已經佔到全部AI算力支出的50%;2026年,這個比例將跳到2/3。聯想CEO楊元慶在CES上說得更直白:AI支出的結構,將從”80%訓練+20%推理”,完全翻轉為”20%訓練+80%推理”。 邏輯並不複雜。訓練是一次性成本,推理是持續性成本。 GPT-4訓了一次,但每天要回答億級使用者的問題,每一次對話都是一次推理請求。規模化部署之後,推理的累積消耗遠超訓練。 這意味著什麼?意味著AI產業最賺錢的那塊蛋糕,正在從”訓練晶片”移向”推理晶片”。而這兩種晶片,需要截然不同的架構設計。 NVIDIA的問題:為訓練設計的晶片,天生不擅長推理 NVIDIA的H100、H200,是為訓練設計的怪獸。它們的核心優勢是極高的運算吞吐量-訓練需要對海量矩陣做大量乘法運算,GPU擅長這種”多核心平行計算”。 但推理的瓶頸不是計算,是記憶體頻寬。 當使用者發出問題,晶片需要把整個模型的權重從記憶體裡”搬”到計算單元裡,然後才能產生答案。這個”搬”的過程,才是推理延遲的真正來源。NVIDIA的GPU用的是外接高頻寬記憶體(HBM),搬運這一步不可避免地引入延遲——對於每秒要處理幾千次請求的ChatGPT來說,這個延遲在乘以規模之後,變成了真實的效能瓶頸。 OpenAI內部工程師注意到這個問題時,他們在為Codex(程式碼產生工具)做最佳化,發現無論怎麼調參,響應速度都受制於NVIDIAGPU的架構上限。 換句話說,NVIDIA在推理端的劣勢,不是努力程度的問題,是架構的問題。 Cerebras的WSE-3晶片走了完全不同的路線。這塊晶片大到需要用晶圓級封裝──面積46,255平方毫米,比人的手掌還大──把90萬個AI核心和44GB超高速SRAM記憶體整合在同一塊矽片上。記憶體直接貼在計算核心旁邊,”搬運”的距離從釐米級縮短到微米級。結果:推理速度比NVIDIAH100快15到20倍。 需要補充的是:NVIDIA並沒有坐以待斃。其最新的Blackwell(B200)架構在推理效能上比H100提升了4倍,正在大規模部署。但Blackwell追的是一個移動的目標-Cerebras同期也在迭代,而整個晶片市場湧現的競爭對手,已經不只是Cerebras一家。 NVIDIA的200億:史上最大併購背後的一張承認書 2025年12月24日,NVIDIA宣布了它史上最大的一筆收購案。 目標是Groq。 Groq是Cerebras的同類競爭對手,主打的也是為推理最佳化的SRAM架構晶片——它叫做LPU(語言處理單元),當時在公開測評中是全球推理速度最快的晶片服務。NVIDIA花了200億美元,把Groq的核心技術和創始團隊全部買走,包括創辦人Jonathan Ross和多位谷歌TPU團隊出身的頂級晶片工程師。 這是NVIDIA2019年70億美元收購Mellanox之後,規模最大的一次併購,整整翻了三倍。 在許多分析師看來,這筆錢背後傳遞的訊息,遠比金額更重要:NVIDIA認為自己在推理端有結構性缺口,而且這個缺口大到值得花200億去堵。 如果NVIDIA真的相信自己的GPU在推理端無敵,它根本不需要收購Groq。這筆錢本質上是一張價值200億美元的技術採購單——承認SRAM嵌入式架構在推理場景裡有真實的技術優勢,承認NVIDIA靠現有產品線無法自然覆蓋這個優勢,用最貴的價格買下了一個它自己填不上的技術缺口。 當然,NVIDIA收購後的官方敘事是另一套——”與Groq深度整合,提供更完整的推理解決方案。” 技術語言的翻譯版本是:我們意識到自己的東西不夠用,所以買了別人的。 OpenAI的200億:買晶片只是表面,入股才是關鍵 現在回到OpenAI這邊。 2026年1月,OpenAI和Cerebras簽了一份100億美元的三年算力採購協議——當時媒體報道的重點是”OpenAI正在多元化晶片供應商”,語氣輕描淡寫。 但4月17日最新曝光的細節,讓這件事的性質有了根本改變: 第一,採購金額從100億變成了200億,增加了一倍。 第二,OpenAI將獲得Cerebras的認股權證,隨著採購規模增加,...
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 crypto.news@mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。

USD1 Genesis:0 費率 + 12% APR

USD1 Genesis:0 費率 + 12% APRUSD1 Genesis:0 費率 + 12% APR

新用戶:質押最高享 600% APR。限時福利!