來源:虎嗅網 作者:齊健 2023年,英偉達幾乎一整年都在關注高端顯卡、AI大模型、超級計算等數據中心業務,以至于市場都快要忘記英偉達在PC市場上也是壟斷全球市場的硬件“軍火商”。 事實上,在數據中心業務中賺得盆滿缽滿的同時,英偉達并沒有忘本,黃仁勛早已開始盤算,如何用AI到“電競椅和辦公桌”上去賺錢了。 在剛剛結束的2024 CES上英偉達發布了大量聚集PC端的AI應用和GPU新品。包括GeForce RTX 40 SUPER系列顯卡,NVIDIA AI Workbench,開源庫TensorRT-LLM,以及生成式AI驅動的語音和動畫模型在內的NVIDIA ACE微服務。 一系列PC端的GPU產品和應用,全部圍繞本屆CES上PC廠商們最關注的話題AIPC。然而,對于一心撲在AI上的英偉達來說,對PC用戶的“關心”,還保留了多少呢?英偉達對業界熱炒的AIPC到底是什么態度? PC業務的前景不如數據中心 事實上,在2023年AI大模型爆發以前,英偉達最大的市場一直是PC端的“游戲”板塊。 英偉達從2015年開始把主營業務分為游戲(Gaming)、企業(Enterprise)、高性能計算和云(HPC & Cloud)、自動駕駛(Automotive)幾個板塊。也是自2015年起,超算和云,也就是未來的數據中心業務,開始在英偉達的營收中一步步走向高位。 2016年,英偉達對其業務板塊進行了調整,去掉了Enterprise和HPC & Cloud兩個板塊,取而代之的是今天的專業可視化(Professional Visualization)和數據中心(Datacenter)。英偉達還首次單獨公布了這幾個業務板塊的營收情況。游戲業務的目標用戶就是個人電腦,專業可視化的用戶則多數是商業客戶使用的工作站。 2016年英偉達全年的總收入為50.10億美元。在2016年1月31日結束的財年中,英偉達的游戲業務收入為28.18億美元;專業可視化業務的收入為7.50億美元;數據中心業務的收入為3.39億美元;自動駕駛業務收入為3.20億美元。 其中游戲業務和專業可視化分別占總收入的56.25%和14.97%,今天如日中天的數據中心,在當時只占總收入的6.77%。 個人電腦市場雖然穩定,但市場似乎已經能夠看到天花板了,不僅增長速度有限,且由于技術門檻不高,這一領域的市場競爭也日益激烈。 2017、2018年,AI技術首次爆發。給英偉達帶來了一條新的增長曲線。 2018財年,GPU加速計算對于深度學習的支持使得英偉達的數據中心業務快速增長,當年數據中心業務的收入為193.2億美元,專業可視化為93.4億美元。數據中心的營收和增幅都遠超專業可視化。 數據中心業務的飛速發展,可以說是把英偉達從傳統游戲硬件供應商,帶上了多元化技術公司的軌道。 市調機構TBRC在2024年1月發布的最新報告中預測,2023年全球個人電腦市場規模約為2040.9億美元,預計到2024年將增長到2123.8億美元,復合年增長率(CAGR)為4.1%。個人電腦市場規模預計在未來幾年將保持增長。到2028年,或將增至2677.1億美元,復合年增長率為6.0%。 數據中心的市場規模和增長潛力則比個人電腦更大。2023年的全球數據中心市場規模約2526.8 億美元,比個人電腦市場規模大了約20%。預計到 2024 年將增至2749.8 億美元,復合年增長率 (CAGR) 為 8.8%。未來幾年數據中心市場規模的增長也更為強勁。TBRC預計,到2028 年,這一市場的規模將增至3884.1 億美元,復合年增長率(CAGR) 為9.0%。 相比于個人電腦業務,數據中心無論是市場規模、市場競爭格局,還是用戶需求、技術發展趨勢,不管當下還是未來,都明顯更好做,也更賺錢。 數據中心有多賺錢? 在英偉達最新的2024財年第三季度財報中,快速上升的數據中心業務營收1451.4億美元,占總營收的80%,完全碾壓了英偉達在PC端的傳統核心業務“游戲”。對于英偉達來說,數據中心業務不管是當下還是未來,都是最能賺錢,賺錢最快,賺錢最簡單的業務。 今天的技術趨勢強烈指向云計算、大數據、人工智能和機器學習等領域,這些都是數據中心業務的關鍵驅動力。 AI推動著各家公司對高算力、超級算力的需求持續上漲。2023年年中,科技博客GPU Utils對GPU短缺問題做了一次調查,博主Clay Pascal給出的調查結果稱,彼時谷歌云擁有大約2.5萬塊H100,微軟云服務Azure可能有1萬-4萬塊H100,甲骨文的情況應該類似。Azure的大部分容量都將流向OpenAI。 Clay Pascal預測對于H100的需求,OpenAI可能需要5萬塊,Meta可能需要2.5萬塊,大型云廠商可能每家都需要3萬塊,加上其他一些初創企業,可能總共需要大約43.2萬塊H100。以每塊約3.5萬美元計算,所需GPU的價值約為150億美元。這還不包括中國公司。 Clay Pascal在博客中寫道:我被告知,對于需要100或1000塊(英偉達GPU)H100的公司來說,Azure(微軟云服務)和GCP(谷歌云服務)實際上已經沒有容量了,亞馬遜也接近沒有容量了。 研究機構 Omdia 的調研結果則稱,英偉達在2023年第三季度售出了近50萬個A100和H100 GPU,基于H100的服務器的交付周期已延長至36到52周。雖然不知道目前英偉達的補貨情況,不過從OpenAI近期接連發生的斷網,停賬號,以及新功能升級來看,不管補貨能力如何,需求的巨大缺口仍在。 在巨大的需求面前,英偉達也開始了坐地起價。在芯片行業中,高端產品的利潤率通常較高,不少高端產品的利潤率可達50%以上。而英偉達的高端GPU利潤率高得可怕,投資銀行Raymond James的消息稱H100 GPU的成本只有3320美元,但英偉達賣出的價格為2.5-3萬美元,利潤率高達1000%。 如今英偉達a100和H100服務器的價格,在國內更是炒得離譜,2023年最后三個月,8卡H100服務器的價格上浮一度達到300萬元人民幣。 英偉達有多需要AIPC? 數據中心這么好賺,那是否意味著英偉達會就此減弱對PC市場的關注呢? 短期來看恐怕還不會,畢竟在過去30年里,PC一直是英偉達的主戰場。在這里,英偉達不僅有優勢,有經驗,更重要的是有信心。 個人電腦市場,特別是游戲和專業圖形處理領域,在今天仍然是英偉達重要的收入來源。英偉達2024財年第三季度業績顯示,游戲業務營收為285.6億美元,同比增長超80%。隨著游戲行業的發展和虛擬現實技術的進步,PC市場的增長潛力仍然巨大。 另一方面,英偉達在PC市場上,亦處在壟斷地位。英偉達在2022年全球獨立GPU市場中的市占率為88%,AMD和Intel僅占8%和4%。 更重要的是,英偉達在GPU方面豐富的產品線,可以在PC市場上長期發貨優勢。英偉達提供了一系列針對不同用戶需求的GPU產品,包括面向游戲玩家和創作者的Ampere,以及面向數據中心的Hopper3。英偉達還構建了包括驅動程序、開發工具和應用程序在內的全面生態系統。 從目前來看如果英偉達的RTX40系列顯卡在PC上能夠支持新的AI業務,那么未來仍將獨占這一百億級別的市場,甚至通過AI技術的升級,進一步擴大個人pc市場中GPU的裝機率,推動全球市場規模更上一個臺階。 2023年數據中心業務的增長速度驚人,與AI大模型這一新興技術的爆發密切相關。然而,AI大模型目前對全球科技市場來說仍處在非常早期的階段,未來的增長持續性到底如何,對云端服務器的需求如何都未可知。 而PC業務,在過去30年中已經走出了一條穩定的增長曲線。由此可想,雖然英偉達勢必會重點投資更有利可圖且增長潛力更大的數據中心業務,但一定也不會把早已站穩腳跟的PC業務市場拱手讓人。 RTX 40系列的機遇和挑戰 AIPC概念在市場上被熱炒,很多廠商都在提出把AI落地到本地,從而降低云計算成本、提高安全性和響應效率。這無疑給PC端的GPU創造了新的市場機遇。 英偉達在2024 CES上最新發布的GeForce RTX 40 SUPER系列顯卡中,GeForce RTX 4080 SUPER在AI視頻生成上比GeForce RTX 3080 Ti快1.5倍,圖片生成上快1.7倍。SUPER GPUs的Tensor Cores能夠實現每秒高達836萬億次AI運算(TOPS),從而為游戲、創作和日常生產力帶來變革性的AI能力。 NVIDIA AI Workbench則允許開發者快速創建、測試和定制預訓練的生成式AI模型和大型語言模型(LLM)。TensorRT-LLM是一個開源庫,用于加速PC上大型語言模型的運行。最新版本的TensorRT-LLM現已可用,它為PC增加了更多預優化模型,與其他推理后端相比,運行速度提高了多達5倍。 此外,英偉達還發布了生成式AI驅動的語音和動畫模型在內的NVIDIA ACE微服務,使開發者能夠向游戲中添加智能、動態的數字化角色。此外,NVIDIA還發布了“Chat with RTX”技術演示,它允許AI愛好者通過所謂的“檢索增強生成”(RAG)技術,輕松地將PC上的大型語言模型(LLM)連接到自己的數據。 這些新品都針對生成式AI做了大量優化,為GPU在未來的AIPC中發力提供了機會。 有趣的是,最近有研究團隊發現RTX 4090在一定條件下甚至有可能替代服務器級芯片。 上海交通大學的研究團隊就開發了一個名為PowerInfer的高性能 CPU/GPU 混合 LLM 推理引擎。這款引擎大幅降低了對 GPU 內存的需求,并減少了 CPU 與 GPU 之間的數據傳輸,從而提高了整體效率。可以在單個 NVIDIA RTX 4090 GPU 上運行大型語言模型(LLM),達到平均每秒產生 13.20 個 token 的速度,峰值速度更是高達 29.08 tokens/s,這與頂尖的 A100 GPU 服務器性能相差無幾,僅低 18%,適用于多種 LLM 應用場景。 PC端GPU在AI加持下雖然機遇巨大。但在AIPC的大潮流中競爭也比高端GPU更激烈。 如今,英偉達要面對的競爭中已經不只有AMD和Intel了。蘋果M系列芯片提出的統一內存架構(Unified Memory Architecture, UMA),給生成式AI的預訓練過程提供了一種選擇。 UMA允許CPU和GPU共享相同的物理內存,減少了數據在不同內存之間的復制需求,提高效率。此外蘋果的硬件優化使其設備在執行AI相關任務時能耗更低。蘋果的硬件和軟件高度集成的特性,也為特定的AI應用提供了更好的優化空間。 目前,已經有大量AI大模型開發者開始嘗試使用蘋果電腦訓練大語言模型。最新款Mac Studio的頂配版本,已經可以訓練700億參數的LLaMA2模型。 不過,雖然UMA具備諸多優勢,但它更多地集中在蘋果自己的生態系統內,與外部系統的兼容性可能有限。且相比專業的GPU,蘋果的硬件可能在處理極其復雜的AI模型時有性能瓶頸。 英偉達在AI領域深耕多年,擁有強大的技術積累和廣泛的應用生態,這些都是蘋果短時間內難以匹敵的。盡管蘋果UMA可能在某些方面對英偉達構成挑戰,但英偉達的GPU在AI領域依然具有很強的競爭力。 PC業務能救中國市場嗎? 黃仁勛在英偉達2024財年第三季度的財報電話中提到,英偉達20-25%的業務來自中國,美國對中國的高端芯片制裁,將會對英偉達造成嚴重影響。 2023年8月,英國《金融時報》曾報道了一則中國云廠商搶購英偉達高端GPU的新聞,稱百度、字節跳動、騰訊和阿里巴巴四家公司合計向英偉達訂購了價值50億美元的AI芯片。而受美國制裁法案的影響,英偉達機會完全無法履行這些訂單。 為了保住中國業務,英偉達再度開始積極設計3款”中國特供“芯片。 某國內服務器制造商近期曾向虎嗅透露,芯片限制政策對國內服務器生產沒有影響,因為不管英偉達推出什么芯片,服務器要做的只是適配NV-Link。目前搭載新的“中國特供”芯片的服務器已經接受了很多客戶的下單,不過受到美國政府加強管制的影響,原本計劃2024年1月到貨的“中國特供”,現在看肯定要延后了。 有消息稱,拜登政府已經開始調查英偉達為中國開發的三款新型AI芯片的具體細節。美國商務部長吉娜·雷蒙多在接受外媒采訪時談道:“我們會檢查每一個新芯片的每一個規格,顯然是為了確保它不違反出口管制。” 雷蒙多說,英偉達“能夠、愿意、也應該向中國出售AI芯片,因為大多數AI芯片將用于商業應用”,但“我們不能允許他們運送最復雜、處理能力最高的AI芯片,這將使中國能夠訓練他們的前沿模型”。她強調說不能向中國企業出售其最先進的半導體,并表示將不斷更新出口管制規則。 美國對中國的芯片封鎖,與其說是在制裁中國,倒不如說是在制裁英偉達。 1月7日,美國《華爾街日報》以“英偉達在中國的新困境,客戶不想要它的降級芯片”為題,報道了英偉達為應對拜登政府出口限制,向中國出售降級特供版AI芯片,但中國客戶不感興趣的最新困境。 事實上,RTX40系列顯卡在中國的銷售也未必會一帆風順,有消息稱,目前英偉達在中國可以銷售的最高端芯片為RTX 4090D,這款新芯片比RTX4090的性能低了5%左右。英偉達介紹該產品將從2024年1月起陸續在中國上市。 有知情人士向虎嗅透露,為了緩和與中國客戶的關系,英偉達在積極開發“中國特供”的同時,也在與中國服務器廠商協商,希望能在中低端服務器,以及PC業務方面做出一些讓步,從而在不取消訂單的情況下,用其他產品替代已經下單但不能發貨的高端芯片產品。 雖然對于中國的AI公司來說,沒有全面封鎖GPU芯片就等于斷了AI研發的電。但這對中國的芯片企業來說,或許是一個好消息。 |