首页|必读|视频|专访|运营|制造|监管|大数据|物联网|量子|元宇宙|博客|特约记者
手机|互联网|IT|5G|光通信|人工智能|云计算|芯片报告|智慧城市|移动互联网|会展
首页 >> 报告 >> 正文

机构:需求火爆,2023年AI服务器出货量有望年增38.4%

2023年5月31日 09:37  爱集微  作 者:李沛

研究机构TrendForce日前发布预测,指出随着AI服务器与AI芯片需求同步看涨,预计2023年AI服务器(包含搭载GPU、FPGA、ASIC等主芯片)出货量将接近120万台,年增38.4%,占整体服务器出货量近9%,至2026年占比将进一步提升至15%,该机构同步上修2022-2026年AI服务器出货量年复合增长率至22%,而AI芯片2023年出货量预计将增长46%。

该机构表示,英伟达GPU已成为AI服务器所搭载芯片的主流,市占率约60-70%,其次为云计算厂商自主研发的ASIC芯片,市占率逾20%。该机构认为,英伟达市占率高的主要原因有三:

其一,目前各国云服务业者(CSP)除了采购原有的英伟达A100与A800外,下半年需求也将陆续导入H100与H800,尤其新机种H100与H800在平均销售单价(ASP)约为A100与A800的2-2.5倍,且英伟达同时积极销售自家相关整机解决方案。

其二,高端GPU A100及H100的高获利模式也是关键,由于旗下产品在AI服务器市场已拥有主导权的优势,据该机构研究,H100本身的价差也依据买方采购规模,会产生近5,000美元的差异。

其三,下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域(如云端/电商服务、智慧制造、金融保险、智慧医疗及自动辅助等)的开发市场,同步带动每台搭配4-8张GPU的云端AI,以及每台搭载2-4张GPU的边缘AI服务器应用需求渐增,预估今年搭载A100及H100的AI服务器出货量年增率将超过50%。

此外,该机构认为在高阶GPU搭载的HBM上,今年H100等新品将升级至HBM3技术规格,传输速度也较HBM2e快,可提升整体系统运算效能。随着高端产品如A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求逐步提升下,预计2023年HBM需求量将年增58%,2024年有望再增长约30%。

编 辑:章芳
声明:刊载本文目的在于传播更多行业信息,本站只提供参考并不构成任何投资及应用建议。如网站内容涉及作品版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容。本站联系电话为86-010-87765777,邮件后缀为#cctime.com,冒充本站员工以任何其他联系方式,进行的“内容核实”、“商务联系”等行为,均不能代表本站。本站拥有对此声明的最终解释权。
相关新闻              
 
人物
工信部张云明:大部分国家新划分了中频段6G频谱资源
精彩专题
专题丨“汛”速出动 共筑信息保障堤坝
2023MWC上海世界移动通信大会
中国5G商用四周年
2023年中国国际信息通信展览会
CCTIME推荐
关于我们 | 广告报价 | 联系我们 | 隐私声明 | 本站地图
CCTIME飞象网 CopyRight © 2007-2024 By CCTIME.COM
京ICP备08004280号-1  电信与信息服务业务经营许可证080234号 京公网安备110105000771号
公司名称: 北京飞象互动文化传媒有限公司
未经书面许可,禁止转载、摘编、复制、镜像