OpenAI 全力让人工智能的运作更趋完美

OpenAI 做了一件出乎所有人意料的事:它放慢了给出答案的速度,以期能回答正确。

新的 OpenAI o1 预览模型 是针对 OpenAI 所称的难题而设计的——比如科学、编码和数学等学科中的复杂任务。

我喜欢这个想法,即那些把人工智能弄得如此糟糕的公司之一,实际上正在做些改进它的事。

在我们看来,这好像魔法一般,因为我们习惯从不同的角度看待软件输出。当它表现出类人的样子时,它看起来很奇怪和具有未来感,这真的很酷。每个人都想成为托尼·斯塔克,并与他们的电脑对话。

不幸的是,急于发布这种看似具有会话能力的酷炫人工智能类型,凸显了它可能有多糟糕。一些公司将其称为幻觉(可惜不是有趣的那种),但不管给它贴上何种标签,我们从人工智能那里得到的答案往往是滑稽的错误,甚至是以更令人担忧的方式错误。

OpenAI 称,其GPT-4 模型在国际数学奥林匹克竞赛的试题中,仅能答对 13%。

这或许比大多数人的得分高些,但就数学而言,计算机理应能够得分更准确。新的 OpenAI o1 预览版能够答对 83%的题目。这是一个巨大的飞跃,突显了新模型的有效性。

值得庆幸的是,OpenAI 名不虚传,并且分享了这些模型是怎样“思考”的。在一篇有关新模型推理能力的文章里,您可以滚动至“思维链”部分,来了解这个过程。我觉得“安全”部分特别有意思,因为该模型采用了一些安全举措,以确保它不会像 GPT-4 模型那样告知您如何自制砷(千万别尝试自制砷)。这将会挫败当前用于使对话式 AI 模型在完成后打破自身规则的那些技巧。

总的来说,该行业需要这个。

我的同事兼 Android Central 执行编辑德雷克·李(Derrek Lee)指出,有趣的是,当我们想要即时信息时,OpenAI 愿意稍微放慢速度,让人工智能“思考”从而为我们提供更优的答案。他说得完全正确。这感觉就像是一家科技公司在做正确的事,即使结果并非最佳。

我认为这不会在一夜之间产生任何效果,而且我也不确信这里存在纯粹的利他主义目标在起作用。OpenAI 希望其新的大型语言模型在当前模型表现欠佳的任务上表现更出色。一个附带的效果是更安全、更出色的对话式人工智能,它能更频繁地给出正确答案。我愿意接受这种权衡,并且我期待谷歌也能做类似的事情,以表明它也明白人工智能需要变得更好。

在有人想出更新颖且更赚钱的东西之前,人工智能不会消失。公司倒不如致力于把它做得尽可能出色。