GPU芯片龍頭英偉達(dá)市值逼近萬億AI加速發(fā)展,下游應(yīng)用細(xì)分賽道可關(guān)注
(原標(biāo)題:GPU芯片龍頭英偉達(dá)市值逼近萬億AI加速發(fā)展,下游應(yīng)用細(xì)分賽道可關(guān)注)
(資料圖片僅供參考)
紅周刊 特約 | 梁杏
近期美股GPU芯片龍頭英偉達(dá)披露財報,第一財季業(yè)績及第二財季展望均超出市場預(yù)期,AI發(fā)展進(jìn)入加速階段,帶動美股科技股集體上漲,納斯達(dá)克100指數(shù)再創(chuàng)年內(nèi)新高。對應(yīng)到A股投資,一方面GPU芯片是AI算力之源,國產(chǎn)替代需求較大;另一方面,底層算力基礎(chǔ)設(shè)施包括AI服務(wù)器、交換機(jī)以及光模塊等通信設(shè)備有望顯著放量。此外,英偉達(dá)近期發(fā)布了一項游戲定制AI模型代工服務(wù),游戲、影視等下游行業(yè)使用AI的門檻也將大幅降低。
GPU芯片龍頭業(yè)績超預(yù)期
人工智能算力需求迎爆發(fā)
近期GPU芯片龍頭英偉達(dá)召開一季度業(yè)績會,公司一季度營收71.9億美元,環(huán)比增長19%,同比下降13%,降幅幾乎為市場預(yù)期和四季度降幅的一半。公司AI芯片所在數(shù)據(jù)中心業(yè)務(wù)收入達(dá)42.8億美元(環(huán)比增長18%,同比增長14%),創(chuàng)歷史新高;游戲及可視化業(yè)務(wù)均實(shí)現(xiàn)環(huán)比增長。
GPU芯片在并行計算方面具有性能優(yōu)勢,使用GPU在云端進(jìn)行模型訓(xùn)練算法,能夠顯著縮短海量訓(xùn)練數(shù)據(jù)的訓(xùn)練時長,減少能源消耗,從而降低人工智能大模型的應(yīng)用成本,目前全球人工智能相關(guān)處理器解決方案基本以GPU為主。
英偉達(dá)超出市場預(yù)期的業(yè)績表現(xiàn),反映出人工智能大模型需求急劇增加,導(dǎo)致算力需求爆發(fā),且轉(zhuǎn)化進(jìn)度快于市場預(yù)期。根據(jù)OpenAI發(fā)布的報告《AI and Compute》,自2012年以來,AI訓(xùn)練應(yīng)用的算力需求每3-4個月就會翻倍,至今AI算力增長超過30萬倍。
根據(jù)研究機(jī)構(gòu)Verified Market Research報告,2021年全球GPU芯片市場規(guī)模達(dá)到334.7億美元,預(yù)計到2030年將達(dá)到4,773.7億美元,復(fù)合年均增長率高達(dá)33.3%。GPU是人工智能領(lǐng)域關(guān)鍵的計算資源之一,目前國內(nèi)AI芯片市場,GPU占據(jù)超過90%的份額。
全球來看,獨(dú)立GPU市場中英偉達(dá)和AMD憑借長期積累的技術(shù)優(yōu)勢和市場地位,合計占據(jù)約96%的市場份額。而相比國際巨頭,國內(nèi)高端GPU在顯存頻率、帶寬等參數(shù)上還有一定差距,未來國產(chǎn)替代空間較大。
算力側(cè)GPU組成的計算單元需要使用低延遲、高帶寬的網(wǎng)絡(luò)聯(lián)接各個服務(wù)器節(jié)點(diǎn),以滿足服務(wù)器/GPU間計算、讀取存儲數(shù)據(jù)的通信需求。服務(wù)器集群的網(wǎng)絡(luò)系統(tǒng)包含服務(wù)器、網(wǎng)卡、交換機(jī)、線纜、光模塊等主要硬件。一般來說,信息傳輸以光信號的形式實(shí)現(xiàn),線纜兩端均需要搭載光模塊。
根據(jù)預(yù)測,全球光模塊市場規(guī)模2021年至2026年年均復(fù)合增長率為13.85%。隨著人工智能服務(wù)器的迭代升級,對應(yīng)更高傳輸速率的光模塊出現(xiàn)增量需求,未來占比將大幅提升。
2022年下半年起,國內(nèi)光模塊頭部廠商陸續(xù)進(jìn)行800G的海外送樣及小批量生產(chǎn)。人工智能大模型發(fā)展的背景下,800G光模塊未來有望快速爬坡起量。交換機(jī)、線纜、光模塊等通信設(shè)備,也有望催化通信板塊行情持續(xù)走強(qiáng)。
大模型門檻降低
下游應(yīng)用不容忽視
近期英偉達(dá)新品發(fā)布較多,將有助于人工智能大模型應(yīng)用的落地。例如英偉達(dá)在Computex2023上發(fā)布了最新AI計算架構(gòu)Grace Hopper以及對應(yīng)服務(wù)器解決方案DGX GH200。Grace Hopper采用最新的CPU與GPU一體設(shè)計方案,互聯(lián)帶寬和總算力都有大幅提升,完美適配大規(guī)模的AI訓(xùn)練/推理需求。
此外,英偉達(dá)發(fā)布世界上第一個AI以太網(wǎng)網(wǎng)絡(luò)平臺Spectrum-X,其中的RDMA技術(shù)可用于跨服務(wù)器顯存共享;2022年亮相的Spectrum-4交換機(jī)也正式量產(chǎn),可以連接分布在兩層網(wǎng)絡(luò)的8192個GPU,交換速率達(dá)到51.2T。
基礎(chǔ)設(shè)施快速升級條件下,下游行業(yè)的大模型應(yīng)用也在落地,彭博社將部署500億參數(shù)的BloombergGPT,聚焦金融領(lǐng)域任務(wù);部分藥企正在使用大模型來加速藥物發(fā)現(xiàn)。
特別是游戲行業(yè),英偉達(dá)官網(wǎng)宣布將提供定制AI模型代工服務(wù)——Avatar Cloud Engine (ACE) for Games,可開發(fā)在云端和PC上運(yùn)行的AI模型。
此前市場對于AI大模型幫助游戲行業(yè)降本增效的預(yù)期比較充分,包括美工、開發(fā)等環(huán)節(jié)的部分工作,都可以通過AI來完成。而AI驅(qū)動的玩法創(chuàng)新(如智能NPC)有望通過大幅提升用戶體驗,帶來整體性的行業(yè)增量,但研發(fā)門檻較高,產(chǎn)品落地具有一定難度。
此次英偉達(dá)發(fā)布面向游戲公司的AI引擎ACE,為開發(fā)者提供優(yōu)化的三款A(yù)I基礎(chǔ)模型,輔助NPC的語言、對話及表情生成,包括通過NVIDIA NeMo模型為NPC賦予專屬定制語言內(nèi)容;通過NVIDIA Riva實(shí)現(xiàn)語音識別-生成回復(fù)文本-文本轉(zhuǎn)語音,實(shí)現(xiàn)實(shí)時對話;通過NVIDIA Omniverse Audio 2 Face模型生成實(shí)時角色表情。
在演示中,玩家僅通過自然語言、語音即可與游戲角色進(jìn)行無障礙交流。人工智能大模型有潛力徹底改變玩家與游戲角色互動的方式,并大幅提高游戲的沉浸感。
而其提供“智能NPC”的通用性解決方案,有望推動相應(yīng)游戲產(chǎn)品加速落地。海外眾多廠商已在運(yùn)用英偉達(dá)ACE構(gòu)建智能NPC或者虛擬人物。對游戲廠商來說,大模型門檻顯著降低。
傳統(tǒng)流程中開發(fā)AI模型需要大量數(shù)據(jù)和復(fù)雜算法設(shè)計,耗費(fèi)時間和資源。而ACE for Games為開發(fā)者提供了高度優(yōu)化的AI開發(fā)環(huán)境和工具,簡化了AI模型的構(gòu)建和部署過程,同時集中代工有利于發(fā)揮規(guī)模效用、協(xié)同效用,實(shí)現(xiàn)游戲生產(chǎn)進(jìn)一步降本增效。
目前國內(nèi)已有手游官宣采用AI技術(shù)實(shí)現(xiàn)“游戲GPT”,NPC系統(tǒng)由AI驅(qū)動,可以與玩家進(jìn)行更有場景感、真實(shí)感的交流。多家公司將AI相關(guān)技術(shù)應(yīng)用在場景建模、AI繪圖、音頻生成、劇情生成等環(huán)節(jié)。
此外,在影視行業(yè),劇本創(chuàng)作、配音等涉及文本及音頻的環(huán)節(jié)或已受益于AI技術(shù)。隨著生成視頻技術(shù)成熟,未來分鏡、剪輯、特效、過場動畫等多個環(huán)節(jié),均能結(jié)合人工智能進(jìn)行降本、增產(chǎn)。未來行業(yè)人力成本優(yōu)化比例有望在40%-60%,動畫電影及短視頻最直接受益。
從行業(yè)基本面看,剔除受影響明顯的2020年與2022年,近幾年五一檔期國內(nèi)電影綜合票房與量價等指標(biāo)基本呈現(xiàn)穩(wěn)步增長態(tài)勢。隨著新片供給改善、院線常態(tài)化運(yùn)營,電影行業(yè)加速復(fù)蘇,具備較好投資機(jī)會。
(本文已刊發(fā)于6月3日《紅周刊》,文中觀點(diǎn)僅代表作者個人,不代表《紅周刊》立場,提及基金僅為舉例分析,不做買賣推薦。)
關(guān)鍵詞: