谢赛宁对谈Aditya Ramesh:确保模型的安全性和对社会的影响是Sora更新的前提条件

6月14日消息,在2024北京智源大会上,纽约大学助理教授谢赛宁与Open AI Sora及DALL· E团队负责人Aditya Ramesh进行对话。

对于Sora,谢赛宁问到是否后续会有更为重磅的更新。Aditya Ramesh表示,我们需要进行大量的工作以确保Sora模型的安全和对社会的影响。我们也很高兴看到市场上越来越多的类Sora应用的问世,我们也会学习这些模型的优势。

谢赛宁针对Aditya Ramesh曾发布的一篇名为“语言模型被高估”的帖子发问到,你如何看待人类语言模型与现实建模的关系。

Aditya Ramesh表示,在任何视频中你都可以获得大量信息,而有些信息是不容易用语言表示的,所以我认为语言是建模过程中的重要一环。对于能够进行理解与推理的智能系统而言视觉是一种更为通用的界面,在未来,建模任何你想建模的东西的能力是未来大模型发展的一块重要的垫脚石。

随后谢赛宁追问道,在语言作为非常强大的先验的前提下,如何确保语言不会成为一种建模的捷径。

Aditya Ramesh回应道,目前研究者在用真正描述性的标题将文本训练成图像时,无需花费过多精力,同时随着我们在模型训练中的投入越来越大,我们发现模型对语言的依赖程度随之降低,并且可以开始自主解决问题,这在一定程度上可以减少语言对建模的干扰。

谢赛宁在谈到Open AI中的年轻的研究人员正在利用他们的热情和经验作出像Sora之类的突出贡献时,Aditya Ramesh表示,这首先得益于Open AI总体上的招聘策略,Open AI更加关注研究者的真正能力,学历要素在其中的占比相对较低;其次,Open AI有一个长期的研究目标,所有的研究人员可以专注于此并为之努力。

谢赛宁在邀请Aditya Ramesh为下一代研究人员提供一些建议时,Aditya Ramesh表示,研究人员在针对不同的研究项目时,独立的思考和解释能力至关重要,同时也要关注目前的前沿热点,这可能对研究有所帮助。(薛世轩)

本文系本站科技报道,更多新闻资讯和深度解析,关注我们。