新聞中心

        EEPW首頁 > 網絡與存儲 > 市場分析 > AI需求持續看漲,預估2023年全球AI服務器出貨量年增近4成

        AI需求持續看漲,預估2023年全球AI服務器出貨量年增近4成

        作者: 時間:2023-05-30 來源:全球半導體觀察 收藏

        芯片需求同步看漲,集邦咨詢預估2023年(包含搭載GPU、FPGA、ASIC等)出貨量近120萬臺,年增38.4%,占整體出貨量近9%,至2026年將占15%,同步上修2022~2026年AI服務器出貨量年復合成長率至22%。而AI芯片2023年出貨量將成長46%。

        本文引用地址:http://www.104case.com/article/202305/447158.htm

        集邦咨詢表示,NVIDIA GPU為AI服務器市場搭載主流,市占率約60~70%,其次為云端業者自主研發的ASIC芯片,市占率逾20%。觀察NVIDIA市占率高的主要原因有三,其一,目前不論美系或中系云端服務業者(CSP),除了采購原有的NVIDIA的A100與A800外,下半年需求也將陸續導入H100與H800,尤其新機種H100與H800平均銷售單價約為A100與A800的2~2.5倍,加上NVIDIA同時積極銷售自家相關整機解決方案。

        其二,高端GPU A100及H100的高獲利模式也是關鍵,由于NVIDIA旗下產品在AI服務器市場已擁有主導權的優勢,據集邦咨詢研究,H100本身的價差也依據買方采購規模,會產生近5,000美元的差異。

        其三,下半年ChatBOT及AI運算風潮將持續滲透至各種專業領域(如云端/電商服務、智能制造、金融保險、智慧醫療及智能駕駛輔助等)的開發市場,同步帶動每臺搭配4~8張GPU的云端AI服務器,以及每臺搭載2~4張GPU的邊緣AI服務器應用需求漸增,預估今年搭載A100及H100的AI服務器出貨量年增率逾5成。

        此外,從高端GPU搭載的HBM來看,NVIDIA高端GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU來說,搭載HBM3技術規格,其中傳輸速度也較HBM2e快,可提升整體AI服務器系統運算效能。隨著高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,TrendForce集邦咨詢預估2023年HBM需求量將年增58%,2024年有望再成長約30%。




        關鍵詞: AI 服務器 TrendForce

        評論


        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 尼玛县| 东平县| 天津市| 门头沟区| 汝南县| 景谷| 屏南县| 承德市| 宝鸡市| 武乡县| 微山县| 民权县| 噶尔县| 名山县| 九寨沟县| 大石桥市| 涿州市| 合作市| 镇远县| 尼木县| 探索| 德格县| 平和县| 卓资县| 玛多县| 永城市| 南阳市| 侯马市| 广灵县| 新津县| 敖汉旗| 天等县| 西青区| 富顺县| 故城县| 广丰县| 应城市| 珠海市| 安顺市| 宝鸡市| 水富县|