谷歌凭庞大 Data Commons 图谱抗击 AI 幻觉

大型语言模型对于当今的 AI 功能极为重要,不管是围绕其他工具进行包装,还是仅仅充当图灵测试的聊天机器人来工作。作为预测模型(而非智能生物),它们不能进行推理,并且与真相没有特殊的关联。这致使 LLM 给出不正确、实际上属于编造的回应,此回应被称为幻觉。这是寻求真正类似人类语言输出过程中要克服的最大障碍之一。

谷歌已经在践行苹果智能方面的承诺

Android 在 AI 方面领先

作为数据收集和编目的世界领导者,谷歌能够比任何人更好地为 LLM 提供准确的数据。为此,谷歌刚刚推出了一组开放模型,称为 DataGemma,旨在提高 LLM 辨别真假的能力。

Data Commons,谷歌那令人难以置信的庞大知识图谱,是其对抗普遍存在的 LLM 不准确的最新武器。知识图谱不仅仅是事实的列表,而是一个全面的、涵盖诸多数据的网络,包括许多点之间的关系以及它们如何相互作用。利用具有高实用性指令的相互关联的事实,是改进语言模型的一种有效办法。现在,Data Commons 就是那个数据,而 DataGemma 就是那组算法。

AI 研究人员创建故意有毒的训练模型来保持 LLM 健康

你本该将你的能力用于做好事……哟,你做到啦?

DataGemma 运用了两种主要策略来应对人工智能的谎言:检索交错生成和检索增强生成。使用 RIG,大型语言模型接收提示,生成一个可能的答案,然后根据经过验证的事实和统计数据的数据库检查该答案。RIG 在一定程度上把模型的决策限制在其最初训练时的概率范围内。

在 RAG 模式下,语言模型首先从其指定的知识图谱收集相关数据,并对该数据集进行评估以获取答案。这使得工程师能够不断管理模型的可用数据集,而不是依赖于初始训练数据。谷歌最近的博客文章在把这些弄得尽可能令人困惑这一方面做得很好,但从概念上讲,它们并不是太复杂。

RIG 和 RAG 并非新鲜事物,各种人工智能模型都以某种方式使用了其中之一或两者。区别在于 DataGemma 是由有史以来最大的一批数据囤积者之一所运营的。谷歌才刚开始采用 RIG 和 RAG 相结合的方式来导航公开可用的 Data Commons 图。但它承诺分享其研究成果,以造福整个机器学习行业,并随着工作的推进逐步提供访问权限。

没有其他团队能与谷歌在处理能力、数据存储与管理以及工程资源的组合方面相抗衡。所以这项大规模的举措在未来可能会对 LLM 的准确性产生巨大的影响。不管您认为人工智能是人类的救星还是被过度炒作的客服机器人(实际上它介于两者之间),更真实的 LLM 回应只会是有益的。