新一代HBM3e 激励HBM营收年增172%

图/美联社、本报资料照片

AI伺服器建置加速晶片需求,其中高频宽记忆体(HBM)为加速晶片上的关键性DRAM产品。2023年HBM3需求比重已随NVIDIA H100/H800及AMD MI300系列量产而提升。展望2024年,三大记忆体厂商将进一步推出新一代高频宽记忆体HBM3e,一举将速度提升至8Gbps,提供2024~2025年新款AI加速晶片更高能效。AI加速晶片市场除了Server GPU龙头厂商NVIDIA、AMD外,CSP业者也加速开发自研AI晶片的脚步,产品共通点为皆搭载HBM,预期带动HBM需求大幅成长。HBM相较DRAM ASP高出数倍,预期2024年将对记忆体原厂营收显著贡献,预估2024年HBM营收年增率将达172%。