根據(jù)機(jī)構(gòu)TrendForce集邦咨詢研究報(bào)告,英偉達(dá)Hopper平臺人工智能(AI)芯片H100于第一季度短缺情況逐漸緩解,新品H200第二季度逐漸放量。最新產(chǎn)品Blackwell系列B200等即將進(jìn)入市場,預(yù)計(jì)第四季度開始放量。機(jī)構(gòu)預(yù)計(jì),英偉達(dá)AI芯片將帶動CoWoS封裝總產(chǎn)能大增,估計(jì)臺積電2024年CoWoS產(chǎn)能增幅將達(dá)到150%,全球總體產(chǎn)能將在2025年后保持70%的年均增長率,其中英偉達(dá)需求占比近半。
根據(jù)供應(yīng)鏈消息,今年英偉達(dá)AI芯片扔將以Hopper平臺為主,Blackwell平臺占整體高端GPU比例將低于10%。
機(jī)構(gòu)表示,B100等芯片裸晶尺寸(die size)相比上一代H100翻倍,因此對CoWoS產(chǎn)能需求增加。HBM高帶寬存儲方面,隨著英偉達(dá)GPU平臺推進(jìn),H100主要搭載80GB容量HBM3,至2025年的B200將達(dá)搭載288GB的HBM3e,單顆搭載容量將近3~4倍增長。而據(jù)三大存儲芯片原廠目前擴(kuò)展規(guī)劃,2025年HBM生產(chǎn)量預(yù)期也將翻倍。
TrendForce研究顯示,全球頭部云服務(wù)商(CSP)中,微軟、Meta、AWS導(dǎo)入英偉達(dá)最新AI芯片較為積極,預(yù)計(jì)2025年GB200方案合計(jì)出貨量有機(jī)會達(dá)30000臺機(jī)柜。谷歌則有可能優(yōu)先擴(kuò)大自家TPU AI基礎(chǔ)設(shè)施。
關(guān)于2024年全球AI服務(wù)器需求,自2024年上半年隨GPU供貨短缺獲緩解后,今年來自服務(wù)器品牌商如戴爾、HPE(慧與)的需求占比將擴(kuò)大至19%;其他包含各地區(qū)Tier-2數(shù)據(jù)中心如CoreWeave、特斯拉等,或各國家/地區(qū)超算中心項(xiàng)目等,合計(jì)需求占比將提高至31%,主要因?yàn)锳I訓(xùn)練或應(yīng)用過程中,可能涉及數(shù)據(jù)隱私安全等議題,預(yù)計(jì)未來此塊市場也將扮演驅(qū)動AI服務(wù)器出貨增長的關(guān)鍵。