市場缺口超10萬張,國內GPU市場將在這些賽道“上分”!
GPU Utils 發布了一份關于英偉達GPU——主要是H100的研究報告,試圖梳理有關GPU供應和需求的相關問題。在這篇主要針對美國市場的報告中,我們看到了目前阻礙大模型和人工智能發展的關鍵瓶頸GPU短缺是如何形成和發展的。
總的來說,GPU瓶頸的出現原因是多方面的,環環相扣的復雜工藝制造流程,半導體周期,對稀缺資源的搶占與恐慌乃至未曾預料到的人工智能的突然爆發,都讓GPU算力變得無比緊張。
樂觀地看,2024年這一瓶頸或許會有所緩解。
數十萬張缺口,一百五十億需求
每個想要在人工智能爆發中分一杯羹的人都需要GPU。準確地說,是英偉達的A100和H100,它們在訓練和推理大模型中扮演關鍵角色。如果要想要從頭訓練大模型,至少需要上千張A100或H100,而推理和微調大模型也至少需要儲存100張。
具體到每家的數量上,報告匯總了一些數據:GPT4在1萬到2.5萬塊A100上訓練,Meta有2.1萬塊A100,特斯拉有7000塊,Stability AI有5000塊,谷歌云大概有2.5萬塊H100,微軟Azure 有1萬到4萬塊,甲骨文可能也有同樣多的H100。值得一提的是,Azure的GPU基本都用來供應OpenAI的訓練了。
而根據馬斯克的說法,GPT5的訓練可能會用到3萬到5萬張H100,因此對未來的估計上,報告指出OpenAI可能需要5萬張H100,Meta至少需要2.5萬張(也有人說實際上需要10萬乃至更多),所有的云服務廠商,微軟、谷歌云和亞馬遜云以及甲骨文各需要3萬張,私有云服務商,比如剛剛融資的CoreWeave等總需求是10萬張,而像Claude的開發者Anthropic這樣的初創公司也都至少需要1萬張GPU。
另外,一些金融公司比如JP Morgan等也在部署A100或H100,因此總體上看,對H100的需求超過了43萬張。
這還是不算中國市場的情況,由于制裁原因,字節跳動、百度、騰訊和阿里巴巴只能大量購買A100和H100的替代產品A800與H800,這一部分的需求沒有列入其中,根據《金融時報》的說法,其總額高達50億美金。
如果將這些數字相加,這就是目前英偉達面對的,總計規模高達200億美元的GPU需求。
GPU 短缺阻礙ChatGPT進步速度
據《財富》雜志報道,OpenAI 公司 CEO 山姆奧特曼在一場非公開會議上透露,GPU 的嚴重短缺阻礙了 ChatGPT 的進步。
報道稱,奧特曼于 5 月會見了多位 App 開發者和初創公司的管理者。倫敦 AI 初創公司 Humanloop 的 CEO 拉扎哈比卜在一則推文中稱,奧特曼認為 OpenAI 缺少足夠的 GPU,這導致許多優化 ChatGPT 的工作被迫推遲。
哈比卜的會議記錄顯示,客戶對 ChatGPT 最大的抱怨是 API 界面的速度和可靠性。奧特曼對此表示理解,并解釋稱主要原因是 GPU 嚴重不足。
會議記錄公開后不久,OpenAI 聯系了哈比卜,表示該活動不便公開發布。隨后哈比卜刪除了這則推文。據介紹,奧特曼抱怨了 GPU 短缺導致算力不足,OpenAI 無法擴大 ChatGPT 的對話框列表。這影響了 ChatGPT 在回答用戶問題時可以處理的信息量,限制了 ChatGPT 的“記憶力”,如過往提問記錄等。此外,ChatGPT 由于算力不足也無法完成更繁瑣的任務,例如寫出復雜的程序代碼等。
算力租賃正在興起
近期各AI廠商紛紛拿出大模型“秀肌肉”之時,多位觀察人士告訴財聯社記者,大數據、人工智能等領域的快速發展推動算力需求(特別是大模型和行業應用等方面)迅速增長。據了解,GPU需求旺盛并已陷入供應短缺。
“不像消費顯卡,很多商家會有庫存,它本來存貨就很少,整個供應鏈上的貨不超過三四千片,GPT熱度起來以后就被互聯網大廠全部鎖完了,今年3月后市場上基本沒有存貨了,部分大廠開始直接從國外渠道找一些貨回來,現在50%以上的訂單基本都是互聯網大廠下的。”張亞洲在接受財聯社記者采訪時表示。
張亞洲告訴記者,包括微軟、英特爾等海外大廠一邊自研、一邊也在對外采購,他們前期訂的一部分(GPU訂單),可能用于大規模訓練,對于推理還是不夠的。基本上廠商低于一個億的訂單,也許渠道商都不愿搭理,發郵件都不回。”GPU的火爆程度由此可見一斑。
而從價格層面看,多款GPU價格從3、4月至今漲幅接近50%。張亞洲稱,“4月份的時候(訂單)大概還能排到10月份,現在已經到明年上半年了。”
鯨平臺專家、鑒片工場創始人張力卜告訴財聯社記者,“很多企業和個人都需要用到高性能的GPU來進行深度學習的訓練和應用,但自己購買服務器建設數據中心的成本又很高,所以選擇租賃云算力平臺是比較劃算和靈活的方式。”基于這一邏輯,租用計算資源的算力租賃模式當前正在興起。
國內GPU應用三大市場
GPU應用場景不斷擴大拉動GPU市場空間迅猛增長,根據VerifiedMarket Research預測,2027年中國GPU市場規模將會增長至345.57億美元。
GPU市場主要應用場景可概括為:AI&數據中心、智能汽車、游戲。
I&數據中心:新一輪AI對算力需求遠超以往:ChatGPT類語言大模型底層是2017年出現的Transformer架構,該架構相比傳統的CNN/RNN為基礎的AI模型,參數量達到數千億,對算力消耗巨大,對算力硬件有大量需求。隨著對商業數據和大數據處理要求算力的不斷提高,GPU的通用計算能力正在越來越廣泛地被應用與數據中心和國家超算中心的建設。
智能汽車:智能汽車方興未艾,自動駕駛和智慧座艙是智能汽車發展的主要方向,均需大量使用GPU。
游戲:游戲業務是GPU應用的傳統領域,對游戲畫面進行3D渲染,英偉達的游戲業務穩中有進。
1、AI:數據中心和終端場景不斷落地對計算芯片提出更多更高需求
依據部署位置劃分,AI芯片可以細分為終端芯片和云端芯片,云端芯片市場空間越為終端芯片的2-3倍。
云端芯片:云端芯片應用于云端服務器,可以進一步細分為推理芯片和訓練芯片。根據甲子光年數據,2018年中國云端芯片市場約46.1億元,該機構預計2023年增長至384.6億元。
終端芯片:應用于嵌入式、移動終端、智能制造、智能家居等領域的AI芯片,終端芯片需要低功耗和更高的能效比,但是對算力的需求也相對較低,主要應用與AI推理。根據甲子光年數據,2018年中國終端芯片市場約15億元,該機構預計2023年增長至173億元。
AI芯片總市場232億元,其中云端芯片市場空間更大,預計終端芯片將隨著AI在多行業落地將進一步放量。甲子光年預測,中國AI芯片市場規模將從2021年232億元增長至2023年的500億元左右,對應中國云端芯片市場的復合增長率為52.8%;終端芯片市場規模相對較小,但由于人工智能在汽車、安防、智能家居等行業滲透,屆時市場規模增長率達到62.2%。
2、汽車智能化浪潮下汽車GPU市場前景廣闊
自動駕駛
汽車智能化浪潮下,自動駕駛和智能座艙是最具有發展前景的兩個方向,GPU應用于二者的域控制器,智能汽車主流的域控制器采用SoC與MCU結合的方案,SoC(片上系統)由GPU、CPU、AI引擎、DPU等組成。GPU在自動駕駛中的作用表現在圖形處理和并行計算,ADAS平臺可以利用GPU的并行計算能力實時分析來自激光雷達、雷達和紅外攝像頭的傳感器數據。
蓋世汽車預計到2025年中國自動駕駛域控制器出貨量達到432萬臺,自動駕駛域控制器與SoC之比在1:1到1:4之間,市場份額較高的SoC通常搭載一片GPU。
智能座艙
GPU虛擬化技術助力智能座艙一芯多屏化發展,智能座艙芯片主要為SoC(片上系統),SoC由GPU、CPU、AI引擎、DPU等組成。智能座艙向著一芯多屏的形態發展,這對芯片并行計算的要求不斷提高,GPU硬件虛擬化技術在智能座艙中有著無可替代的優勢。在智能座艙屏幕、儀表盤、車載與各系統中均需要使用GPU。
蓋世汽車預計2025年中國智能座艙域控制器出貨量達到528萬臺,智能座艙一臺域控制器內置一個SoC,位于汽車的中央顯示屏內,一個SoC通常搭載一片GPU。
3、游戲玩家人數持續增長,游戲GPU市場規模穩中有升
游戲市場是傳統意義上GPU最關鍵的市場,隨著千禧一代游戲需求的進一步提升,全球游戲玩家數量穩增,相應地擴展了游戲GPU市場規模。NewzooExpert預計2020-2025年全球游戲玩家人數復合年增率為4.2%。
游戲GPU的主要分類:根據現行市場上的主要產品可劃分為四類:1)游戲機、2)PC端主機游戲、3)控制臺、4)VR&AR。根據JonPeddie Research統計,2021年Q4全球PCGPU出貨量(包括集成和獨立顯卡)高達11000萬片。受到俄烏沖突、天然氣供應等沖擊性全球事件影響,2022年Q1、Q2,全球PCGPU出貨量略有下降。
由于PC正常運行必須要求硬件上同時具備CPU和GPU,因此每臺PC至少需要一張集成顯卡或獨立顯卡,此外,根據需求可再增購獨立顯卡。根據JPR統計,全球GPU與PC配售比在2022Q1達到了129%。
