OpenAI 明年推人工智能代理,对您影响几何

OpenAI 预计于明年推出“代理”。这些是独立的人工智能模型,能够在无需人类输入的情况下执行一系列任务,并且可能很快在 ChatGPT 中得以应用。

在旧金山举行的首次 OpenAI DevDay 活动期间,首席执行官山姆·奥特曼(Sam Altman)表示“2025 年代理将发挥作用”,该公司通过让一个 语音助手 自行打电话并订购草莓,展示了代理潜在能力的早期示例。

该公司表示,通用人工智能(AGI)有五个阶段,我们目前处于第二阶段,即人工智能在做出响应之前能够依据一个想法进行推理。代理是第三阶段,意味着 人工智能足够聪慧,能够依据一个想法进行推理 ,并且作为规划其响应的一部分,能够自行行动并独立执行操作。

奥特曼此前曾宣称,o1 系列模型的强大功能意味着它们可以开始帮助构建代理级模型,我们应该很快就能看到其中的第一批。更大的挑战以及可能造成延迟的因素,将是确保它们 符合人类价值观 并且不会“失控”,执行对人类无益的操作。

构建有用且功能强大的代理是每个人工智能实验室都致力的方向。例如,这将使得人工智能不仅能写一本书,还能自己搞定如何自行出版,包括在亚马逊注册账户,在 Kindle Direct 上进行分享。

在通往通用人工智能(AGI)的道路上,智能体是必不可少的一步,因为它需要能够执行其认为达成目标所必需的任务。奥特曼在开发日期间说道:“如果我们能打造出一个在人工智能研究方面比 OpenAI 更出色的人工智能系统,那感觉就像是一个真正的里程碑。”

达到那个阶段需要在之前几代人工智能的基础上不断建设。奥特曼表示,o1 模型将使智能体真正得以实现,当人们开始使用智能体时,“这将会是一件大事”,并补充说:“人们会让智能体去做一件原本需要他们花费一个月才能完成的事情,而它仅需一个小时。”

他预测,人们可能会让一个智能体执行特定任务,让另一个智能体承担不同职责,直到他们扩展到 10 个或 100 个智能体,能够接管日常职责的各个方面。在观察 o1 思考想法并给出建议时,我们已经看到了这可能如何发展的一些要素。

每当 OpenAI 发布一个新模型,他们都会对其进行严格的安全测试,依据一系列用于判定其能否安全发布的标准来进行评级。这在过去造成了延误,并需要在模型上设置防护栏以防止某些行为。

一个明显的例子是 GPT-4o 模型,它能够原生地生成图像、创作音乐甚至模仿声音,但所有这些功能都被防护栏阻止了。你知道它可以做到,因为有时防护栏会失效。

对于代理来说,护栏断裂将会是一个更大的问题,因为他们可能有权访问您的银行账户,能够上网执行任务,甚至能在 Fiver 上雇佣他人为其完成任务,还能使用语音模式下达指令。

在开发日的示例里,我们看到有一个语音机器人致电卖家(由研究人员扮演),订购 400 颗巧克力包裹的草莓,给出具体地址,并表示将用现金支付。它宣称自己是人工智能助手,但有时您很难分辨它是人工智能。

在接受英国《金融时报》采访时,OpenAI 的首席产品官凯文·韦尔(Kevin Weil)表示:“我们希望能够以与他人互动的所有方式与人工智能进行互动,”并补充道,代理系统将于明年成为主流,从而使这一目标成为可能。

韦尔称,针对智能代理系统的一项保障措施是要求其始终声明自身为人工智能,不过,如果您曾听闻 Advanced Voice 的口技表演或者目睹 GPT-4o 生成完美的矢量图形,您就会知道这些限制并不总是完美的。

就我个人而言,我期待着智能代理的到来。我喜欢编程,智能代理能让我更迅速地达成目标,接管一些枯燥的测试阶段。它还能让我最终处理掉约 25 万封未读邮件。倘若天网是我为实现收件箱清零所必须付出的代价——那就让终结者来吧。