两会建言|全国人大代表刘庆峰:建议加快构建国产算力平台上的自主可控大模型及产业生态
本报记者 陈佳岚 北京报道
“当前,通用人工智能在全球竞争和关注度方面又上了一个新台阶,尤其是DeepSeek推出之后,包括最近可以看到特朗普政府的新政策,以及台积电和三星对我们芯片的制成工艺实现了更严格的限制。如何真正发挥举国体制优势,以市场为导向,鼓励龙头企业、科研院所和广大创业者,围绕自主可控平台实现生态体系繁荣,这是非常关键的事情。”2025年全国两会召开之际,全国人大代表、科大讯飞董事长刘庆峰对《中国经营报》记者如是表示。
记者从科大讯飞方面获悉,今年两会上,刘庆峰提交了关于《加快构建国产算力平台上的自主可控大模型及产业生态》的建议。针对当前高度依赖进口算力、产业生态薄弱等问题,刘庆峰提出了“基于自主可控国产算力平台的大模型研发应用,构建数据资源共享机制,专项支持生态体系建设”三点细分建议,呼吁加快构建国产算力平台上的自主可控大模型及产业生态,以推动我国人工智能产业的健康发展。
国产大模型发展需自主可控 刘庆峰提出三点建议
“国产大模型实现性能效果突破,引起国际社会对中国人工智能领域更深刻、更广泛的警惕和限制。”刘庆峰表示,国产大模型训练高度依赖进口算力,除讯飞星火外,其他全民可下载的大模型均基于英伟达卡训练。还有DeepSeek最近开源了非常多的工具,这些工具也都是对以英伟达为主的海外生态的丰富。若不能加快解决国产自主可控人工智能产业生态薄弱、适配困难等问题,无异于“在别人地基上建高楼”。
对此,刘庆峰提出了三点建议,呼吁加快构建国产算力平台上的自主可控大模型及产业生态。
一是鼓励基于自主可控国产算力平台的大模型研发和应用。对做国产算力芯片的企业和使用国产芯片训练大模型的企业给予资金专项支持,在国家公共算力上给予资源倾斜,加速基于国产算力的大模型算法创新;鼓励央国企优先采购基于国产算力平台研发的全栈自主可控大模型;优先推广基于全栈自主可控大模型的行业垂直应用。
刘庆峰对记者表示,因为在研发投入和前期生态相关工具链的打造上需要耗费额外精力、花费更多成本和时间,在这种情况下,无论是在应用采购上的倾斜,还是在我们搭建的公共算力平台上优先给予相关算力支持,都是必要的。否则,大家都希望在别人完成后,我们仍然跟随享受产业红利,谁都不迈开第一步,最终会出现很大问题。
二是构建数据资源充分共享机制。“我们有这么多的应用场景,如果能够充分共享数据资源,将有助于我们更快地推广大模型的应用,形成数据飞轮,从而在AI产业落地方面获得先发优势。”刘庆峰认为,要依托中国广泛的AI应用场景,积极推广大模型在产业领域的应用,并形成数据飞轮,让中国率先获得AI产业落地红利。
三是设立专项支持基于国产算力平台的生态体系建设。“过去在CPU时代,虽然龙芯已经制造出优秀的CPU,但是无人使用,导致CPU产业未能良好发展。操作系统也是如此,如果无法形成从产业应用到技术开发再到源头创新的良性互动,形成完整的生态体系,那么长期发展将会受到巨大限制。我们不能将自己的大楼建在别人的院子里,也不能在沙滩上建造大厦。自主可控的生态体系需要有一整套扶持政策和相关的打法。”刘庆峰建议,我们需要专项支持基于国产算力平台的生态体系建设,鼓励依托自主可控算力底座建立的大模型开发者生态发展和开源社区建设,专项支持加快形成国产大模型生态体系和工具链,加速我国自主可控人工智能产业生态发展。
关注AI生成虚假信息 呼吁构建可信信息环境
生成式人工智能的快速发展,也使得AI生成内容真假难辨。记者注意到,刘庆峰还带来了《预防大模型生成“幻觉数据”充斥互联网带来的危害,从技术研发和管理机制上构建可信的信息环境数据》的相关建议。
中国互联网络信息中心(CNNIC)发布的《生成式人工智能应用发展报告(2024)》显示:我国生成式人工智能产品的用户规模已达2.49亿人。生成式人工智能存在幻觉,特别是深度推理模型的逻辑自洽性提升,使得AI生成内容真假难辨。带有算法偏差的虚假信息会被新一代AI系统循环学习,形成恶性循环,影响公众信任和社会稳定。
就此,刘庆峰呼吁,构建安全可信数据标签体系,提升内容可靠性。建立安全可信、动态更新的信源和数据知识库,对不同类型数据的可信度和危害程度建立标签体系,降低人工智能幻觉出现概率,提升生成内容可靠性。
刘庆峰还建议,研发AIGC幻觉治理技术和平台,定期清理幻觉数据。研究幻觉自动分析的技术和软件平台,开展幻觉自动分析、AIGC深度鉴伪、虚假信息检测、有害内容识别以及互联网传播溯源,由中央网信办、国家数据局等部门定期清理幻觉数据,为公众提供AIGC幻觉信息检测工具与服务。
事实上,全国人大代表,TCL创始人、董事长李东生日前在接受记者采访时也关注到了生成式人工智能技术的进步给各个领域带来机遇的同时,也造成了AI深度伪造内容侵权现象、欺诈事件越来越频发的情况。“我国相关立法虽关注这一议题,但已出台的规章制度还不具备可操作的细则和明确的处罚标准。”李东生建议加快人工智能深度合成内容标识管理规章制度、明确对人工智能深度合成服务商未履行标识义务的惩罚制度、加强深度合成内容标识技术标准和发布的管理、加强国际合作,强化形成人工智能生成合成内容的有效监管。
“AI生成虚假信息的治理和打击力度,已成为当前亟待解决的问题。”全国政协委员、四川大学华西医院教授甘华田则从完善AI生成内容监管法律法规体系、加强技术监管与防范、建立健全监管机制、提高公众素养与法律意识等方面,督促生成式人工智能信息行业的健康发展。
(编辑:吴清 审核:李正豪 校对:翟军)