DeepSeek低成本破坏价格 恐让AI产业血流成河?
DeepSeek颠覆AI产业烧钱的刻板印象。(示意图/达志影像/shutterstock)
AI公司 DeepSeek继2024年12月底推出DeepSeek V3大语言模型后,2025年1月20日再推出全新开源推理大模型 R1,同样在多项基准测试中表现卓越,甚至与 OpenAI所推出之o1系列模型相媲美;此外,与V3一样为价格破坏者,R1更将矛头指向海外国际巨头,引发市场对AI伺服器及半导体产业链的巨额资本支出未来无法回收之担忧。
DeepSeek-R1 推论输出与Token订价为Chat GPT o1之3%~4%,API服务定价为每百万输入tokens为人民币1至4元,每百万输出tokens为人民币16元;从中国大陆的语言模型业者月初开始降价,国际巨头OpenAI、Meta未来恐怕也将加入。
尽管法人认为,企业使用的 API用量增加,语言模型产品仍需要更多GPU来支撑。不过令市场担心的是,大规模的AI伺服器资本支出尚未开始获利或产生正现金流,就开始面临终端产品杀价竞争,恐怕使CSP业者未来在硬体上的投入越发保守。
科技业界指出,R1采用全新的训练方法,彻底颠覆传统大语言模型的训练流程。传统上,大语言模型训练依赖「监督微调(SFT)」过程,即通过大量人工标注数据进行预训练,再进一步利用强化学习来提升性能。
而DeepSeek直接采用在基础模型上进行强化学习方式,省略耗时耗力的监督微调环节,这种方式不仅大幅降低对标注数据的需求,还让模型能够自由探索解决问题的多种路径,提升广泛使用度和适应能力。
在技术设计上,R1 采用群组相对策略优化(Group Relative Policy Optimization,GRPO)演算法,降低传统强化学习对计算资源的需求;另外,DeepSeek团队创新性地采用「准确度奖励」与「格式奖励」相结合机制,确保模型生成的答案不仅正确,还具有规范性及可读性。
R1在多项基准测试中展现惊人的能力。例如,在AIME 2024数学竞赛基准测试中,R1的平均 pass@1分数达到 79.8%,超越 OpenAI o1-1217模型;在长文本理解、开放式问答等多领域任务中,R1的性能亦超越前代模型 DeepSeek-V3。
更颠覆市场的是,为使更多用户能够享受到 R1 的强大推理能力,DeepSeek 团队进行模型蒸馏,将 R1的能力迁移至小型模型,供不同资源需求的开发者或研究者使用,并采MIT License将此免费开源。给予用户最大程度的使用自由,支持模型蒸馏,可将推理能力蒸馏到更小的模型。