AI笔电搭载DRAM容量 看增7%

AI NB成长动能看俏,TrendForce预估,2025年AI NB渗透率将提升至20.4%,并带动整体平均搭载容量成长至少7%。图/本报资料照片

晶片供应商的AI PC SoC产品roadmap

AI NB成长动能看俏,TrendForce预估,随AI NB渗透率自2024年的1%,提升至2025年的20.4%,且AI NB皆搭载16GB以上DRAM,将带动整体平均搭载容量成长0.8GB,增幅至少为7%。

2024年大型云端厂商(CSPs),如Microsoft、Google、Meta、AWS等厂商,为采购高阶主打训练用AI伺服务器的主力客群,以作为LLM及AI建模基础。

CSPs逐步完成建置一定数量AI训练用伺服器基础设施后,将积极从云端往边缘AI拓展,包含发展较为小型LLM模型,以及建置边缘AI伺服器,促使其企业客户在各制造、金融、医疗、商务等各领域应用落地。

因AI PC或NB在电脑设备基本架构组成与AI伺服器较为相近,具有一定程度运算能力、可运行较小型LLM及GenAI等运用,有望成为CSPs桥接云端AI基础设施及边缘AI小型训练或推论应用的最后一哩路。

在晶片端,英特尔的Lunar Lake及超微的Strix Point,在此次COMPUTEX展首次发布SoC,皆符合AI PC标准,Lunar Lake及Strix Point配套的PC机种,将分别于2024年第四季及2024年第三季上市,成市场关注焦点。

在品牌端,华硕及宏碁继5月推出搭载高通 Snapdragon X Elite的机种后,也在COMPUTEX期间,推出搭载Lunar Lake、Strix Point、Snapdragon X Elite的机种,MSI仅推出搭载Lunar Lake、Strix Point;新款AI PC建议售价落于1,399~1,899美元区间。

TrendForce预估,NB DRAM平均搭载容量,将自2023年的10.5GB年增12%,至2024年的11.8GB。

随着AI应用完善、能处理复杂任务、提供更好的用户体验并提高生产力,将带动消费者对于更智能、更高效的终端设备需求迅速增长,2025年AI NB渗透率将快速成长至20.4%的水位,亦将带动DRAM搭载容量的成长。

TrendForce认为,AI NB除了带动NB DRAM平均搭载容量提升外,亦将带动省电、高频率记忆体的需求,在这情况下,相较于DDR,LPDDR更能凸显其优势,因而加速LPDDR替代DDR的趋势。

对原本追求可扩展性的DDR、SO-DIMM方案而言,转换至同属模组的LPDDR、LPCAMM方案,亦为LPDDR on board之外的选项之一。