華泰證券:大模型持續迭代有望帶來大量算力基礎設施需求建議關注算力產業投資機遇
華泰證券研報分析,從大模型的演化路徑來看,模型體量還將進一步擴張,從而帶來算力需求持續增長。長遠來看,成熟大模型的運營有望帶來3169億美元的服務器增量市場,較2023年全球211億美元的AI服務器市場而言,仍有較大成長空間。基于此,我們認為大模型持續迭代有望帶來大量算力基礎設施需求,建議關注算力產業投資機遇。
全文如下
華泰|計算機:從大模型演進測算全球AI算力空間
我們認為,從大模型的演化路徑來看,模型體量還將進一步擴張,從而帶來算力需求持續增長。長遠來看,成熟大模型的運營有望帶來3169億美元的服務器增量市場,較2023年全球211億美元的AI服務器市場而言,仍有較大成長空間。基于此,我們認為大模型持續迭代有望帶來大量算力基礎設施需求,建議關注算力產業投資機遇。
核心觀點
全球AI算力需求繼續向上
隨著大模型持續迭代,模型能力不斷增強,其背后是“ScalingLaw”下模型參數量和數據集不斷增長的結果。我們認為,從大模型的演化路徑來看,模型體量還將進一步擴張,從而帶來算力需求持續增長。具體來看,大模型對算力的需求體現在預訓練、推理、調優三個環節。根據我們的測算,以1000億參數模型為例,三個環節的算力總需求約18萬PFlop/s-day,對應需要2.8萬張A100等效GPU算力。長遠來看,成熟大模型的運營有望帶來3169億美元的服務器增量市場,較2023年全球211億美元的AI服務器市場而言,仍有較大成長空間。基于此,我們認為大模型持續迭代有望帶來大量算力基礎設施需求,建議關注算力產業投資機遇。
模型體量越來越大,帶動算力建設需求
大語言模型(LLM)是在大量數據集上預訓練的模型,其在處理各種NLP任務方面顯示出了較大潛力。Transformer架構的出現開啟了大模型的演化之路,隨著解碼模塊堆疊數量的不斷增長,模型參數量持續增加,逐漸演化出GPT-1、GPT-2、GPT-3、PaLM、Gemini等不同版本模型,參數量也從十億、百億,向千億、萬億增長。我們看到,每一代模型的演化都帶來能力的增強,背后一個很重要的原因在于參數量和數據集的增長,帶來模型感知能力、推理能力、記憶能力的不斷提升。基于模型的縮放定律,我們認為未來模型迭代或仍將延續更大參數量的路徑,演化出更加智能的多模態能力。
大模型的算力需求體現在:預訓練、推理、調優
拆解來看,大模型的算力需求場景主要包括預訓練、Finetune及日常運營。對于三部分的算力需求,我們的測算思路如下:1)預訓練:基于“Chinchilla縮放定律”假設,計算量可以通過公式C≈6NBS來刻畫;2)推理:以ChatGPT流量為基準,計算量可以通過公式C≈2NBS來刻畫;3)調優:通過調優所需的GPU核時數倒推。以1000億參數模型的預訓練/推理/調優為例,三個環節所需的算力需求分別為13889、5555.6、216PFlop/s-day。我們認為,在縮放定律(ScalingLaw)加持下,隨著模型體量增長,算力需求有望持續釋放。
基礎設施需求有望持續釋放,關注算力產業投資機遇
結合對大模型預訓練/推理/調優的算力需求測算,我們預計從開發到成熟運營一個千億模型,對A100等效GPU的需求量為2.8萬張。根據我們的測算,成熟大模型的運營有望帶來3169億美元的全球AI服務器增量市場。對比來看,據IDC,2023年全球AI服務器市場規模211億美元,預計2024-2025年CAGR將達22.7%,未來仍有較大成長空間。此外,考慮到國內對高性能芯片獲取受限,AIGPU國產化也有望進一步提速。
風險提示:宏觀經濟波動、下游需求不及預期、測算結果可能存在偏差。