搭AI热 高效能记忆体得利

韩厂SK海力士(SK hynix)预期,AI伺服器市场中长期年复合成长率将达30%,整体伺服器需求(包含一般型伺服器)将会以年复合成长率7~9%成长,将成为记忆体的成长动能。

SK海力士指出,与AI相关的记忆体需求显著成长,已增加高密度DDR5、LPDDR5、HBM产品,使公司出货量优于先前展望,产品单价(ASP)也比前一季度高。根据TrendForce调查显示,2023年HBM(High Bandwidth Memory)市场主流为HBM2e,包含辉达(NVIDIA)A100/A800、超微(AMD)MI200以及多数CSPs(云端服务业者),自研加速晶片皆以此规格设计。

同时,为因应AI加速器晶片需求演进,各原厂再于2024年推出新产品HBM3e,预期HBM3与HBM3e将成为明年市场主流。

若探究HBM各世代差异,主要以速度做细分,除了市场已知的HBM2e外,在进入HBM3世代时,产业出现较为混乱的名称。

TrendForce表示,目前市场所称的HBM3,实际需细分为两种速度讨论,其一,5.6~6.4Gbps的HBM3;其二,8Gbps的HBM3e,别名HBM3P、HBM3A、HBM3+、HBM3 Gen2皆属此类。

目前三大原厂HBM发展进度如下,两大韩厂SK海力士、三星(Samsung)先从HBM3开发,代表产品为NVIDIA H100/H800以及AMD的MI300系列,两大韩厂再预计于2024年第一季送样HBM3e;美系原厂美光(Micron)则选择跳过HBM3,直接开发HBM3e。