李彦宏内部讲话曝光:谈大模型三大认知误区,未来模型之间的差距会变大

“外界对大模型有相当多的误解,”近日据媒体报道,李彦宏的一则内部讲话曝光。在最近一次和员工交流中,李彦宏谈及三个大模型认知误区,涵盖了大模型竞争、开源模型效率、智能体趋势等热点话题。

李彦宏认为未来大模型之间的差距可能会越来越大。他进一步解释,大模型的天花板很高,现在距离理想情况还相差非常远,所以模型要不断快速迭代、更新和升级;需要能几年、十几年如一日地投入,不断满足用户需求,降本增效。

榜单不代表大模型实力,模型之间的差距是多维的

对于行业“大模型之间的能力已经没有壁垒”的说法,李彦宏给出了不同观点。“每次新模型发布,都要和GPT-4o做比较,说我的得分已经跟它差不多了,甚至某些单项上得分已经超过它了,但这并不表明和最先进的模型就没有差距了。”

他解释说,很多模型为了证明自己,会在发布之后去打榜,会去猜测试题目、答题技巧,从榜单上看 ,或许模型的能力已经很接近了,“但到实际应用中,实力还是有明显差距的。”

李彦宏指出,模型之间的差距是多维度的。行业往往更关注理解、生成、逻辑、记忆等能力的差距,但却忽视了成本、推理速度等维度,有些模型虽能达到同样效果,但成本高、推理速度慢,还是不如先进模型。

内部讲话中,李彦宏认为,真正要去衡量大模型能力,应该是在具体应用场景中,看是否能满足用户需求、产生价值增益,这才是最值得被在乎的。

开源模型效率不高,解决不了算力问题

延续此前观点,内部讲话中,李彦宏进一步阐释了外界对开源大模型的认知误区。

“在大模型时代之前,大家习惯了开源意味着免费、意味着成本低。” 他解释说,比如开源的Linux,因为已经有了电脑,所以使用Linux是免费的。但这些在大模型时代不成立,大模型推理是很贵的,开源模型也不会送算力,还得自己买设备,无法实现算力的高效利用。

“效率上开源模型是不行的。” 他表示,“ 闭源模型准确讲应该叫商业模型,是无数用户分摊研发成本、分摊推理用的机器资源和GPU,GPU的使用效率是最高的,百度文心大模型3.5、4.0的GPU使用率都达到了90%多。”

李彦宏分析,在教学科研等领域,开源模型是有价值的;但在商业领域,当追求的是效率、效果和最低成本时,开源模型是没有优势的。

智能体是大模型最重要的发展方向,但还不是业界共识

李彦宏还谈及了大模型应用的发展阶段,他认为首先出现的是Copilot,对人进行辅助;接下来是Agent智能体,有一定的自主性,能自主使用工具、反思、自我进化;这种自动化程度再发展,就会变成AI Worker,能独立完成各方面的工作。

当前,智能体已经受到越来越多的大模型公司及客户的关注,李彦宏认为,虽然“有很多人看好智能体这个发展方向,但是到今天为止,智能体还不是共识,像百度这样把智能体作为大模型最重要的战略、最重要的发展方向的公司并不多。”

为什么要强调智能体?李彦宏也给出了答案,“智能体的门槛确实很低”, 很多人不知道怎么把大模型变成应用,而智能体是一个非常直接、高效、简单的方式,在模型之上构建智能体相当方便。目前,每周都有上万个新的智能体在百度文心智能体平台上被创造出来,智能体的日均分发次数已快速增长至800万次。

雷峰网