大模型“免费”送,厂商们图什么?

2024年618,传统电商行业不再喧嚣,但大模型市场却开启了惨烈的“价格战”,甚至部分企业直接免费送大模型服务。

5月15日,字节跳动宣布,豆包主力模型企业市场定价为0.0008元/千Tokens,0.8厘可处理1500多个汉字,比行业便宜99.3%。

一周后,阿里云也对外宣布,通义千问GPT-4级主力模型Qwen-Long的API输入价格降至0.0005元/千Tokens,直降97%。

阿里云官微

阿里云卷入“价格战”后,百度、腾讯云、科大讯飞等企业也接连宣布自家的大模型降价。其中百度甚至宣布,两款基础模型可免费调用。

不可否认的是,随着技术逐渐成熟,大模型的成本正不断下探。为了尽快俘获更多企业客户,拓宽市场影响力,上游算力提供商确实需要尽力降价。

然而需要注意的是,尽管大模型成本正逐步下探,但目前大部分企业的大模型业务依然面临算力、人力成本高企的挑战,没能盈利。在此背景下,上游算力提供商不断降价,甚至免费送大模型,显得十分反常。

这种非理性的价格战,其实凸显出了上游企业亟待通过让利,打通大模型商业闭环的内在焦虑。

01 价格战背后,大模型商业困局难解

2023年以来,随着ChatGPT爆火,诸多科技公司都看到了AI大模型蕴含着巨大的商业价值,因而加码相关业务。2024年3月,国家数据局局长刘烈宏透露,中国10亿参数规模以上大模型数量已超100个。

然而随着越来越多企业入局相关产业,大模型商业模式不健全,成本高、落地难、下游企业持观望态度等问题愈发凸显。

由于需要采购高性能计算机,并且需要进行模型训练,大模型的成本异常高昂。以OpenAI为例,其训练GPT-4的FLOPS约为2.15e25,一次训练成本为6300万美元。The Information报道,2022年,OpenAI亏损约为5.4亿美元左右,约扩大一倍。

目前,大部分企业都意识到了大模型的参数越多,商业想象力越大,因而持续加码模型训练。不过问题也随之而来,那就是大模型仅仅问世两年时间,下游创收手段十分有限。

整体而言,大模型有两种创收模式,一是直接向用户收取订阅费,二是向开发者收取API调用费。比如,2023年初,OpenAI推出了会员订阅服务ChatGPT Plus,费用为20美元/月,可使用基于GPT-4的模型,并且提供更快的响应时间、优先访问等权限。

不过,据Reddot联合创始人Pierre Herubel测算,即使以每月拥有100万订户估计,ChatGPT Plus每年或只能为OpenAI带来2.4亿美元左右收入,很难帮助公司扭亏为盈。

因此,目前以OpenAI为代表企业的发力重点,是向企业收取API调用费。参照云计算的经验,外部的企业从零开始训练大语言模型非常困难,倾向于采购成熟的AI大模型技术,一旦这些企业探索出具备想象力的商业模式,即可反哺上游算力提供商,进而实现多方共赢。

对此,2023年11月,百度创始人兼CEO李彦宏曾表示,不断地重复开发基础大模型是对社会资源的极大浪费,“AI原生时代,我们需要100万量级的AI原生应用,但是不需要100个大模型。”

02 算力提供商作出表率,但B端企业仍持观望态度

由于大部分大模型算力提供商都是平台型企业,推出大模型技术后,这些企业纷纷在内部试水相关技术的商业化,以图给下游客户做出商业化表率。

比如,2023年阿里云峰会上,时任阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇表示:“阿里巴巴所有产品未来将接入‘通义千问’大模型,进行全面改造。”

以钉钉为例,接入大模型后,其支持AI生成推广文案、绘图方式创建应用、视频会议中生成摘要等功能。钉钉总裁叶军认为,大模型将会让钉钉的收入增长百分之几十。

无独有偶,过去一段时间,腾讯也积极探索AI技术的商业化应用。2023年财报中,腾讯对外表示:“广告AI模型的改进显著提升了精准投放的效果…… 这些发展带动了高质量的收入来源,推动毛利增长 23%。”

自有业务挖掘出AI的商业价值后,上游算力提供商正致力于针对垂直行业的细分需求,提供定制大模型能力。

比如,2023年6月,腾讯云宣布开启“腾讯云行业大模型生态计划”,致力于推进大模型在产业领域的创新和落地。据悉,腾讯云已为传媒、文旅、政务等10余个行业提供了超50个大模型行业解决方案。

然而需要注意的是,平台型企业大多拥有自研大模型技术,无论是试错还是使用成本都更低,往往只会对外宣传商业路径清晰的大模型落地案例。

反观外部的企业需要采购上游的大模型技术,探索成本相对更高,并且商业模式不清晰,很难拥有足够的积极性。见实团队披露的《AI应用需求与付费意愿调研报告》显示,46.2%的企业AI预算在1万元以下,另有22.2%和24%的企业预算分别为1万-5万元以及5万元-10万元,这些中腰部企业没有足够的预算探索AI。

此前,大部分主力模型产品的API输入价格不菲,比如,Qwen-Long为0.02元/千tokens,1万元只可以购买5亿个tokens。如果一个产品有500万月活,1万元的预算,一个月平均只能供每个用户使用100个tokens,显然不够。

03 成本虽屡屡下探,但算力提供商已急不可耐

显而易见,当下限制大模型B端商业化落地的主要障碍,就是API成本过高,限制了B端企业探索相应的商业闭环。因此,目前算力提供商的发力方向,就是致力于通过技术手段,压低大模型的成本,降低B端企业的使用成本。

开头提到,字节跳动旗下豆包主力模型企业市场定价为0.0008元/千Tokens,比行业便宜99.3%。对此,火山引擎总裁谭待表示:“豆包模型的超低定价,来源于我们有信心用技术手段优化成本,而不是补贴或是打价格战争夺市场份额。”

无独有偶,2024年5月6日,深度求索开源了第二代MoE模型DeepSeek-V2,性能更强,训练成本更低。据悉,DeepSeek可节省42.5%训练成本,减少93.3%的KV缓存,最大吞吐量提高5.76倍。整体而言,DeepSeek-V2消耗的显存(KV Cache)只有同级别Dense模型的1/5-1/100。

不过,这并不意味着当下大模型行业的价格战十分正常。2024年5月,谈及大模型的发展趋势时,零一万物CEO李开复接受采访时表示:“未来整个行业的推理成本每年降低10倍是可以期待的,而且这个趋势是必然的。”未来,大模型的成本将呈阶梯状下探,但目前大模型的价格却断崖式下探,甚至部分企业免费送,降价幅度远超上游成本降幅。

上游算力提供商之所以如此内卷,很大程度上都是希望俘获更多的B端企业,一方面实现规模效应,另一方面,让B端企业无负担地探索良性的商业模式。对此,谭待表示:“大的使用量,才能打磨出好模型,也能大幅降低模型推理的单位成本……大模型从以分计价到以厘计价,将助力企业以更低成本加速业务创新。”

尽管激烈的价格战之下,大模型已经进入“免费时代”,但其实大部分上游算力提供商为了后续创收,都留有更为隐晦的收费手段。

目前,大部分大模型仅推理用的token降价,而训练和部署成本依然不低。比如,阿里的qwen-turbo 模型百万个token推理只要2元,若是训练,就需要30元,部署时,每月需要2万元。

由此来看,大模型进入“免费时代”,很大程度上其实只是一个宣传意义上的噱头。如果下游企业想要用上成套大模型服务,那么不能不付出更高的使用成本。

而之所以上游算力提供商仅仅降低推理用的token成本,主要是因为通过内部应用,其对于大模型的商业价值足够自信,希望降价的噱头起到引流的作用。

参照云计算价格战的经验,此番大模型价格战或许可以吸引更多下游企业认真审视大模型,有望基于相关技术探索出更多良性的商业模式。