中国银河维持计算机推荐评级:国产开源MoE模型DeepSeek-V2性能媲美GPT-4,大模型价格战拉开帷幕
每经AI快讯,中国银河05月13日发布研报称:维持计算机推荐(维持)评级。
事件:5月7日,知名私募巨头幻方量化旗下的AI公司DeepSeek发布全新第二代MoE大模型DeepSeek-V2。
性能直逼GPT-4Turbo,综合能力位于大模型第一梯队:DeepSeek-V2是一个参数为2360亿的MoE模型,每个token仅激活210亿参数,支持128K的上下文长度。1)纵向对比:对比去年11月发布的DeepSeek67B性能取得显著提升,训练成本节省了42.5%,KV缓存减少了93.3%,最大生成吞吐量提高到了5.76倍。2)横向对比:上下文长度对标GPT-4Turbo(128K);中文综合能力(AlignBench)超越Llama3,在开源模型中表现最强,与文心4.0等闭源模型在评测中处于同一梯队,仅次于GPT-4Turbo;英文综合能力(MT-Bench)与最强的开源模型LLaMA3-70B处于同一梯队,超过MoE开源模型Mixtral8x22B。此外在知识、数学、推理、代码等方面也有出色的性能。
DeepSeek-V2训练计算量降低,推理能力表现高效:DeepSeek-V2训练数据集是由8.1Ttoken的高质量、多源预训练语料库组成,采用的Transformer架构中由一个注意力模块和一个前馈网络(FFN)组成,并且在注意力机制和FFN方面采用了创新架构:一方面设计了MLA(Multi-headLatentAttention)利用低秩键值联合压缩来消除推理时键值缓存的瓶颈,DeepSeek-V2消耗的显存(KVCache)只有同级别Dense模型的1/5-1/100,每token成本大幅降低;另一方面,FFN采用高性能MoE架构DeepSeekMoE,以经济的成本训练强大的模型。我们认为,DeepSeek-V2大幅提升训练效率,训练所需计算量约为GPT-4的1/20,但性能基本上相差无几,目前来看参数是影响大模型性能的关键因素之一,除此之外,架构优化能有效提升降低训练成本,提升训练效率,将成为另一个影响大模型性能的关键因素。
API价格降至约GPT-4Turbo百分之一,大模型价格战即将拉开帷幕,利好AI应用层快速渗透:目前DeepSeek-V2API定价为每百万token输入1元、输出2元(32K上下文),几乎低于所有市面上主流大模型价格,约为GPT-4Turbo的1/100。我们认为,DeepSeek-V2提升数据集质量及优化架构,成本大幅降低,在价格方面提升竞争力,大模型将逐渐进入价格战时期,AI应用将快速渗透。
风险提示:技术研发进度不及预期风险;供应链风险;政策推进不及预期风险;消费需求不及预期风险;行业竞争加剧风险。
每经头条(nbdtoutiao)——大手笔!接盘王健林的万达电影后,知名80后富豪又出手收购字节游戏资产!背后是腾讯?
(记者 胡玲)
免责声明:本文内容与数据仅供参考,不构成投资建议,使用前请核实。据此操作,风险自担。