Akamai:从训练到推理,AI大模型重点在转移
通信世界网消息(CWW)AI正以澎湃之势席卷而来,在提升人们工作生活效率的同时,也创造了众多新的市场机遇。
作为CDN领域领导者,Akamai自2008年进入中国市场,致力于帮助中国企业顺利“出海”,目前已在电商、游戏、金融、制造业、社交媒体等多个领域积累了众多头部客户。同时,伴随着新技术新应用的出现,Akamai也在积极拓展新的领域。
Akamai亚太区云计算专家团队负责人 李文涛
2024年四季度,Akamai面向AI使用场景发布了GPU计算实例产品。这款产品基于Nvidia RTX 4000 Ada——一款多用途、灵活高效的GPU卡,既适合做视频编解码、多媒体处理和渲染,又适合进行AI推理相关工作。“Akamai将自己定位为‘推理云’,帮助用户更好地在Akamai公有云上进行推理。”Akamai亚太区云计算专家团队负责人李文涛表示。
从训练转向推理
众所周知,AI包含训练和推理两个过程,在Akamai看来,AI建设的重心正在向推理倾斜。“AI大模型的发展重点正在从训练转向推理,接近用户边缘的推理计算需求正在增长,边缘推理也是Akamai重点关注的技术方向。”李文涛表示。
虽然目前国内大模型开发热情高涨,“百模大战”已经打响。但不可否认的是,国内原生大模型数量较少,大部分企业主要借用开源模型为自己的业务提供服务。甚至可以说,很少有企业能够从头到尾训练模型,更多是对模型进行微调优化。此外有行业研究表明,未来90%的AI成本开销集中在推理环节,训练成本开销只占10%。因此无论从成本开销还是技术复杂度考虑,推理都是值得重点关注的方面。
在Akamai看来,训练和推理两种场景对于云计算的需求存在差异。其中,训练需要大规模的核心云数据中心,以及大量的高端GPU卡,很多时候还需要将多块GPU卡连接起来进行训练。而推理对于云服务的需求体现在两个方面:一是AI模型需求相匹配与的GPU和相关云服务;二是位置距离最终用户足够近,以充分降低推理过程中的网络时延。
Akamai以“推理云”为定位,借助边缘基础设施为推理提供服务。客户在使用AI模型时希望得到快速回应,特别是未来AI模型与IoT设备、自动驾驶等场景结合,对时延的要求会越来越高。Akamai依托强大的CDN网络基础和丰富的边缘算力,帮助客户面对AI推理对性能提出的挑战。此外,Akamai在应用安全防护方面也有大量积累,在提升客户体验的同时保障AI模型的安全使用。
具体来看,Akamai这款GPU计算实例,适合于生成式AI推理;结合边缘机房资源,能够在GPU算力层面和网络层面帮助客户最大限度提高推理性能。此外,Akamai的安全能力还能为保障推理安全、确保API接口不被滥用、防止DDoS攻击等。
自建服务是节省成本最优选择
AI安全和数据隐私都是业界关注的话题,Akamai对这些问题也提出了应对之策。
随着AI的日益普及,一些不法分子开始使用AI构建恶意代码、钓鱼软件等,使得网络安全形势日益复杂。对此,Akamai一方面加强了AI与安全产品的集成,通过加大投入,用AI模型和算法发现来源于AI的攻击威胁,提升识别率和阻拦成功率;另一方面建立安全顾问团队,帮助客户实时调整云安全策略,提供威胁防御咨询和服务。
在数据隐私保护方面,AI训练需要大量数据,最终用户在推理过程中也会提供个人敏感数据,如何确保数据的安全对于云计算平台而言既是挑战也是机遇。Akamai的分布式边缘云可以将用户敏感数据留存在最终用户所在国家境内,避免了数据跨境传输的复杂性。
此外,近期多家头部大模型厂商掀起了大模型应用降价潮。在Akamai看来,大模型厂商降价是好事,有助于降低用户使用门槛。Akamai建议,对于那些希望以大模型为核心提供服务的厂商来说,购买基础设施云资源和租用GPU资源自建服务是实现成本节省的更优选择。其实在云计算服务中,客户使用托管式SaaS服务与在IaaS平台上自建服务之间就存在显著的成本差距,使用PaaS和SaaS服务的成本约为使用开源软件自建服务的4倍。而在AI方面,使用PaaS和SaaS形式的大语言模型推理服务,其成本可能是自建推理环境的10倍左右。
截至目前,Akamai在全球拥有29个大型数据中心和10个小型数据中心,这些成为Akamai提供全球服务的坚实基础。展望2025年,Akamai表示将继续加大在公有云方面的投入,提供更多高附加值的行业解决方案,在AI推理方面提供更加丰富的硬件选择和整体解决方案。