观念平台-大型语言模型的胡说八道难以消除

图/freepik

近年来,人工智慧(AI)技术突飞猛进,尤其是大型语言模型(LLM)的发展更是引人注目。在11月初的2024年百度世界大会上,百度创始人李彦宏声称,过去24个月内,大模型在技术上取得重大突破,基本消除了幻觉(Hallucination)现象,变得可用、可被信赖。如果李彦宏的意见属实,那是多么令人高兴的事情。

■百度李彦宏称大模型「幻觉」现象已消除,遭业界反驳

大型语言模型的幻觉是指模型生成的内容与事实有争议或逻辑不符,甚至会捏造不存在的信息。也就是大家担心的「正经八百的胡说八道」。自2018年OpenAI推出首个GPT模型以来,美国企业与研究机构如OpenAI、Google DeepMind、Meta等这些模型的最新发展,都不敢说解决幻觉的问题。

李彦宏的言论在随后的「文心一言」(百度开发的聊天机器人)公开演示中马上受到挑战,其表现不如预期。同时,360集团董事长周鸿祎公开反对李彦宏的观点,指出大模型的幻觉问题远未解决。

李彦宏的乐观评价主要基于百度在大模型领域的技术创新。文心一言采用了知识增强、检索增强生成(iRAG)及强化学习与人类反馈(RLHF)等技术,试图提高模型生成内容的准确性和可靠性。从理论上看,这些技术应能有效减少幻觉现象。然而,在实际应用中,文心一言却频频出现错误回答和逻辑不一致的问题,甚至虚构学术引用,暴露出大模型在应对复杂场景时的局限。

与李彦宏的乐观态度相比,周鸿祎更为理性和审慎。他指出,大模型在生成语言文本时,幻觉问题依然普遍存在,特别是在高精度应用领域,如医疗、法律和科学研究中,这种问题更是致命。周鸿祎强调,AI行业不应夸大其大模型的能力,而应正视其局限,并将资源投入到解决实用性和可靠性问题上。

个人认为,幻觉问题并非单靠技术叠加就能彻底解决。大模型的训练仍然高度依赖于历史数据,而这些数据可能包含错误或不完整的信息。此外,模型生成内容的概率性特征,使其在缺乏真实参考时,容易凭空捏造。而且牵涉到推理或创新,就是把不存在的事情想象出来。杜撰想像避免不了有幻觉。

周鸿祎的观点也凸显了360集团在AI技术上的不同策略。与百度相比,360更注重技术风险控制和应用场景的安全性。他认为,行业应优先确保模型在实际应用中的稳定性,并逐步改进核心技术,而非急于追求技术突破的市场效应。

■过度乐观的宣传,恐削弱用户对AI的信任感

此次事件也揭露了AI行业普遍存在的问题:技术宣传与实际表现之间的落差。李彦宏的言论无疑提高了公众对文心一言的期待,但公开演示中暴露的问题显然未能满足这一期待。这种过度乐观的技术宣传,不仅损害了企业声誉,也可能削弱了用户对AI技术的信任。

李彦宏与周鸿祎的观点碰撞,反映了中国AI行业内部的竞争格局。百度与360等企业在技术路径、应用策略上的分歧,为行业注入了多样性。然而,技术竞争并不应是负和博弈,合作仍然是推动行业整体进步的重要途径。

自美国OpenAI于2018年推出GPT系列模型以来,大模型技术在语言理解、文本生成、多模态处理等方面取得了显著进步。中国则迅速追赶,推出了包括百度的「文心一言」、阿里的「通义千问」、腾讯的「混元」等在内的多款大模型。在各项技术指标上,中国已经可以与美国抗衡。

大模型作为人工智慧领域的重要里程碑,其潜力无可否认。然而,幻觉问题的存在提醒我们,技术发展仍需循序渐进。在追求技术突破的同时,AI企业更应注重技术应用的稳定性和可靠性,为用户提供真正有价值的服务。

未来,华人世界的AI行业不但需在竞争,更要合作。竞争则能激发创新活力,促使企业不断突破技术瓶颈。而企业间的合作更可以加速技术的标准化进程,共同推动技术应用场景的扩展,创造福祉,造福人类。