(資料圖片僅供參考)
研究機構(gòu)TrendForce日前發(fā)布預(yù)測,指出隨著AI服務(wù)器與AI芯片需求同步看漲,預(yù)計2023年AI服務(wù)器(包含搭載GPU、FPGA、ASIC等主芯片)出貨量將接近120萬臺,年增38.4%,占整體服務(wù)器出貨量近9%,至2026年占比將進(jìn)一步提升至15%,該機構(gòu)同步上修2022-2026年AI服務(wù)器出貨量年復(fù)合增長率至22%,而AI芯片2023年出貨量預(yù)計將增長46%。
該機構(gòu)表示,英偉達(dá)GPU已成為AI服務(wù)器所搭載芯片的主流,市占率約60-70%,其次為云計算廠商自主研發(fā)的ASIC芯片,市占率逾20%。該機構(gòu)認(rèn)為,英偉達(dá)市占率高的主要原因有三:
其一,目前各國云服務(wù)業(yè)者(CSP)除了采購原有的英偉達(dá)A100與A800外,下半年需求也將陸續(xù)導(dǎo)入H100與H800,尤其新機種H100與H800在平均銷售單價(ASP)約為A100與A800的2-2.5倍,且英偉達(dá)同時積極銷售自家相關(guān)整機解決方案。
其二,高端GPU A100及H100的高獲利模式也是關(guān)鍵,由于旗下產(chǎn)品在AI服務(wù)器市場已擁有主導(dǎo)權(quán)的優(yōu)勢,據(jù)該機構(gòu)研究,H100本身的價差也依據(jù)買方采購規(guī)模,會產(chǎn)生近5,000美元的差異。
其三,下半年ChatBOT及AI運算風(fēng)潮將持續(xù)滲透至各種專業(yè)領(lǐng)域(如云端/電商服務(wù)、智慧制造、金融保險、智慧醫(yī)療及自動輔助等)的開發(fā)市場,同步帶動每臺搭配4-8張GPU的云端AI,以及每臺搭載2-4張GPU的邊緣AI服務(wù)器應(yīng)用需求漸增,預(yù)估今年搭載A100及H100的AI服務(wù)器出貨量年增率將超過50%。
此外,該機構(gòu)認(rèn)為在高階GPU搭載的HBM上,今年H100等新品將升級至HBM3技術(shù)規(guī)格,傳輸速度也較HBM2e快,可提升整體系統(tǒng)運算效能。隨著高端產(chǎn)品如A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求逐步提升下,預(yù)計2023年HBM需求量將年增58%,2024年有望再增長約30%。
關(guān)鍵詞: