周鸿祎、王小川、黄铁军、张鹏论道人工智能:一路投奔奇点

今天,对于人工智能我们有很多的共识与非共识。

共识是,它将会像工业革命一样,极大地改变人类的生产与生活方式;而非共识是,它究竟将以什么样的方式、带来怎样的影响?通用人工智能的奇点究竟何时到来?人类是否为此做好了准备?

11月30日,在ChatGPT发布一周年之际,中国科技产业智库「甲子光年」举办了2023甲子引力年终盛典。在大会的巅峰论坛上,甲子光年创始人&CEO张一甲与360集团创始人周鸿祎,百川智能创始人、CEO王小川,智源研究院院长黄铁军,智谱AI CEO张鹏,一起探讨了人工智能如何一路投奔奇点。

四位嘉宾都是人工智能行业的资深从业者,对于人工智能的发展,他们会产生怎样的观点交锋?

以下为现场嘉宾交流实录,经「甲子光年」整理,有删改。

张一甲:我们这次巅峰论坛凑齐了360、百川、智谱AI和智源,应该算是AI行业非常有信息密度的阵容。我的第一个问题是,今年4月份小川和周总都曾判断OpenAI领先国内两三年,ChatGPT领先国内模型一年。现在半年过去了,国产大模型已经追上OpenAI了吗?我们还有多少差距?

周鸿祎:在刷榜上,中国的大模型已经把OpenAI刷出10名之外了,因为我们都是做题家出身,只要碰上做题都很擅长。但是我和王小川都是搞搜索出身,如果你认真地用GPT-4,给他很复杂的提示词,你会发现它功力还是很深厚的。但是,因为一些国内的同行们准确地预言了自己将来某月某日超越GPT-4,就弄得我们很尴尬,好像我们对行业没有信心一样,所以我们说得比较笼统。

但是今年有两个事,一个是OpenAI推出GPT Store,很多定制的GPT对提示词有复杂处理能力,我们把这些提示词拿回来对国内的大模型试一下,你会发现彼此差距还是存在的;第二就是近期OpenAI的宫斗事件,虽然我不太相信那个Q*,我认为是编故事,但我一直相信OpenAI手里一定有一些牌没有拿出来,包括它这么快地推出GPT-4V等多模态版本。

客观来讲,我认为还是有差距。只是说有这个差距,并不妨碍我们国家打造自己的GPT,打造自己的大模型产业。相反,你要是不承认这个差距,老是盲目乐观,反而会带来一些问题。我们发布360智脑时,很谦虚地说我们跟OpenAI差距有一年半吧,然后同行就说已经超越GPT-4了,客户就觉得同行比360领先一年,所以我也不敢再预言跟OpenAI的差距了。

王小川:OpenAI背后有很多我们看不见的东西。我认为,年底国内一线大模型水平差不多能达到去年11月30日推出的GPT-3.5版本,距离GPT-4可能还有差距,因为对方已经升级为GPT-4V。所以我预期,可能一年半左右追上GPT-4V,这是肉眼可见的差距,背后还没看到的东西也许还会更远。我认为整体差距依然在2~3年,肉眼可见的差距是1~2年。

张鹏:刚才周总和小川说的我特别赞同,要有明确的对比指标才能比,但是大家知道OpenAI肯定没有拿出所有的真功夫,大家只能跟OpenAI已经公布的GPT4、GPT-4V来比较。从年初的情况来看,我们是在拉近这个距离。我们智谱AI最近也对技术有升级,有些单点或者少量指标上可以逼近它了。我们在极力追赶它的态势,但是总体平均能力确实还存在不小差距,这也是我们压力和动力的来源。

黄铁军:我最后一位发言,是想听三位头部企业信心有多大。如果问我,我的回答很简单,我们肯定是在接近而不是拉大差距。去年11月30日ChatGPT发布,整个社会对于这个领域的热情和焦虑感在一瞬间提升,但由于智源开始做得比较早,所以过去并不焦虑,现在也不焦虑,将来也不会焦虑。

为什么我认为今年差距在变小呢?因为参与这个领域的人越来越多,投入的资源越来越大,经验也在逐渐积累。我常说人工智能是一门技术,而像ChatGPT这样的项目是一个庞大的工程,比的就是投入的资源和人力。现在我们有这么多企业和机构在尝试,我相信各自都找到了一些窍门,或者有了自己的体验和心得,我们之间的差距会越来越小,甚至某一天可能会超越。

周鸿祎:我补充两句,避免过于悲观。首先,OpenAI已经有了七年的历史。他们还继承了谷歌的一些成果,拥有很多过去的经验。他们从去年开始发布,基本上国内的公司才开始拼命迎头赶上,用了一年的时间达到现在的程度,我认为这已经是超速发展了。

其次,现在还有像Llama这样的开源社区,对整个开源产业有很大的影响。我也同意黄院长所说,做大模型有些是算法,有些是基础设施,但还有一些东西,就像炼丹一样,属于工程化的做法,是秘而不宣的,比如如何进行微调、精调,训练数据的筛选等。国内推出了更长的上下文窗口尺寸的模型,小川做了192K,GPT-4 Turbo做了128K,新的方法层出不穷。所以我相信,在这些基础上,国内的发展速度还是很快的。

我还有一个观点,如果我们做企业级应用、行业应用、垂直应用,不用等我们做到GPT-4能力的时候才能推出,实际上现在这个能力已经绰绰有余了。而且反过来看,GPT-4能不断改进,与它每个月有一亿用户使用也有很大的关系。如果我们还都是在实验室里,没有流量,没有用户使用,那么无论如何是改进不了的。靠所谓的刷题只能测出在某些方面的进步,而靠亿万用户的使用,每天都会出现很多用户不满意的例子,然后你才知道自己的差距,进而做出调整,这样的进步才更快。

张一甲:下一个问题稍微有点争议——大模型自研。最近有很多关于自研的讨论。有一少部分人认为只有从第一行代码开始写的大模型才是自研大模型。但另一部分人认为,既然开源生态已经相当成熟,所有大模型也都是基于transformer架构,我们无需重复造轮子。到底什么叫自研?大家通常所说的自研应该是从哪一层开始?我们是否应该追求所谓的绝对自研?

黄铁军:这个话题可能有点稍微超出大模型本身了。有一种自研叫从0到1的原始创新,比如飞机发明,指南针发明,相对论提出,我自己发明的脉冲摄影原理等;还有一种,即使不是第一个做出来,但因为第一个发明者严格保密,后来者只能靠自己的方法探索出来,也是从0到1的自研,比如我们的“两弹一星”。

回到大模型来看,要不要全部从0到1?我觉得有点绝对了,这是不合理的。人工智能发展这么多年,包括神经网络,深度学习,transformer,OpenAI的GPT,其实都是在历史的演进过程中发展的,既有继承,又有从0到1的自研部分。

一个企业要不要从0到1?我觉得可以追求,但不能把这个当成一个必须的要求。因为有的愿意选择相对成熟的一些经验,包括代码,然后再往前走,有的愿意自研更多一些,甚至从第一行代码开始,这些道路都是可以的。一个产品或技术体系的自研成分多与少、技术含量高和低,这是可以评判的。

我的结论就是,鼓励自研,鼓励从0到1,但是不要把做任何事都变成从0到1,这走向了另一个极端。

周鸿祎:我觉得大家对大模型有一个误解,就是以为每家大模型都在重新写代码,其实大模型底层的算子很多都是通用的,包括OpenAI也没有从零开始,它用的transformer这套算法是谷歌提出的,大家用的训练框架、推理框架都有成熟的东西。大家做的工作是在大模型基础上,把各种数据去做预训练、去做微调,这是决定一个大模型好不好用的关键。

大家今天发布的开源大模型与开源代码还是有区别的。Linux以及很多大数据系统、操作系统发布的是开源代码,而开源大模型实际上不是代码,而是大模型经过训练之后的神经网络的权重。对于原始创新,我也同意黄院长的观点,如果既希望中国能快速赶上,又希望什么事儿都要重复发明轮子,我认为是没有必要的,特别是Llama2发布之后,对于开源的大模型生态有很大的推动。同样基于Llama2,不同公司的训练方法不一样,最后的模型能力也不一样。就像两个大脑基础相同的小孩,念的书不一样,学习的成绩也不一样。

实际上,在开源的基础上结合自己的数据做SFT(监督微调),以及OpenAI推出的RLHF(人类反馈强化学习),这些都跟transformer模型的底层代码没有什么直接关系了。当然,做到一定程度之后,可能又需要模型架构做创新了,这是一个螺旋式的上升。

大家做SFT产生几十万个问题,需要大量的人力工作,现在很多公司图省事,直接用GPT-4产生精调数据,迭代速度就会很快,但因为是用GPT-4的结果来训练,智力永远超越不了GPT-4。

总之,我对开源这件事的态度是,没有必要一刀切。

张一甲:小川,百川智能今年的速度非常快,平均每28天就会发布一个大模型,想必也要借一些前人肩膀的力量。你在自研和借助前人成果之间是怎么权衡和选择的?

王小川:因为我们做的很快,确实有人问过我这个问题。我们从第一版7B、13B、53B发布,到第二版开始发技术报告,把训练方法、切片、每训练一步参数模型的变化都公开了,这样大家能够相信我们是从原材料开始自己做的。

大模型跟以前的企业操作系统不太一样,大模型更像是炒菜,你得有原材料,有肉、有菜。有人从菜园子种菜开始做起,也有人从切菜洗菜、菜的配比开始做。训练模型有很多手工活,包括菜的配比、放入顺序,炒完之后可能还需要再加调料再回锅炒一下,是这样一个过程。

百川的选择是从种菜开始,数据来自公开和开源的数据,再做重新清洗。从Llama到ChatGPT只有1.5%左右的中文数据,我们的中文数据超过三分之一,三分之二的英文数据也是经过处理的。炒菜这个过程也是我们自己做的,但是可以看别人用什么原材料,好的方法、经验是可以借鉴的。

先不做价值判断,可以大概分为两类:一类是自己炒菜,从原材料开始;第二类是把别人炒好的菜再加些调料回锅,改造成自己的菜。从这个角度来说,百川属于第一种。

张一甲:智谱AI格外强调自研了预训练框架,当年为什么做这个选择?这算重复造轮子吗?

张鹏:当然不属于重复造轮子,因为自研后面还有两个字叫算法,即预训练框架,我们是在这一层面做了一些自己的创新与尝试,成功与否留给后人评判。

我们与领先者的差距到底在哪儿?可以简单做一个思考,如果你沿着前人的脚印去走,是很难超越前人的,顶多追到屁股后面。如果要想在尽量短的时间内超越前人,就一定要做创新。

我认为,所谓的原始创新与自研其实是两个概念,因为现代科学技术包括人工智能这一工程化技术的发展,都是站在前人的肩膀上前进,几乎没有人要开山鼻祖创建新的流派,OpenAI也是站在前人的肩膀上,这件事不用那么绝对。但是,也不能混淆说,要完全按照别人的脚印来走。要在适当的继承前提下,抱有原始创新意识,这也是智谱AI自研算法框架的目的。我相信只有这样才能尽快地追赶前人,甚至超越前人。

黄铁军:补充两句,其实科研分好几个层次。第一层,很多大学、研究所的人写文章,不追求商业利益,作为公共知识贡献;第二层,是申请专利,保护自己20年,专利公开,因此别人也可以在这个基础上往前继续做;还有一种就是技术秘密(know how),企业的踩坑、诀窍、经验,是不对外分享的;之后才是写代码,也就是具体实现,到大模型还有数据、微调、对齐等。任何一个企业做大模型,这些层次都要考虑。将来产业发展是体系化的,我们要分析哪些是自己的,哪些是别人的。我也有信心我们的贡献会越来越多,水平会越来越高。

张一甲:大家的讨论让我们看到,自研不是一个简单的非黑即白的概念,不是二选一,是一个复杂的系统性工程。

张一甲:大模型的成本,一直是一个很大的挑战。它跟当年周总跟小川特别熟悉的互联网还不太一样。大模型是使用的人数越多,算力消耗越多,成本就越高,它没有网络效应,不会像互联网那么性感。所以有媒体调侃说,“用GPT-4总结电子邮件,就像开着兰博基尼送披萨”。各位是如何看待和应对这些问题的呢?

周鸿祎:在互联网上对百万、千万甚至亿以上的用户展开服务,成本可以控制得很低,原先的模式大部分是服务免费,广告模式大行其道。但是,大模型每回答一个问题,成本都比搜索高很多,所以就会催生一种新的商业模式,就是OpenAI现在采用的用户收费模式,而不是广告模式。这种模式的变迁,也会让谷歌比较难受。

但是,任何一个新东西刚出来的时候总是有缺点的。大模型就像手机行业早期的大哥大,很贵,很难进入寻常百姓家。我们看到硅谷有一个趋势——OpenAI、微软、Meta、亚马逊都要做芯片。我打听了一下,大家实际上都要先解决推理芯片的问题,包括苹果、高通的CPU都号称在推理上内存可以充分利用起来。

所以,未来一两年,如果推理芯片能够不再依赖昂贵的GPU,借助今天的CPU的升级把成本降下来,我个人认为成本便不再是一个问题。另外,如果刨去互联网和to C的应用,面对政府和大型企业客户的内部私有化部署就不存在成本问题,因为算力是企业自己提供的,用户量也比较少,这不会成为大模型发展的阻力。

王小川:在互联网时代,其实搜索的算力消耗已经非常多了,但在今年年初大模型每一次请求花费的成本是搜索的40多倍。

有两点可以来解决。第一,先选择高价值场景。原来互联网服务免费的时候,其实对服务质量要求也不会特别高,而大模型提供的一些能力,有机会为一些高价值场景提供更好的服务,比如法律、医疗、教育,这些高价值场景如果能服务好的话,是可以赚钱的。

其次,成本问题最终会通过硬件升级或软件迭代而大幅下降。OpenAI也把成本问题看得非常重要,今年年中去美国跟他们接触,他们今年下半年的目的就是把GPT-4的成本降低4倍,明年还会降低4倍,接下来软硬结合每年成本可能降低10倍,三年以后降低一千倍,最终会变成像上网一样低门槛的事情。长久而言,技术进步会填平这样的困难。

张一甲:你之前提到明年你们会推“超级产品”,我记得你四月份创业的时候就说要做超级产品。大家都知道ChatGPT算一个“Killer APP”,但之后的其他产品可能还不具备超级产品的定义。什么叫超级产品?你的超级产品大概是什么样子的?

王小川:得有千万级以上用户在使用才能叫超级产品。今天大家对于超级产品的进度有点苛求了,ChatGPT一年前才发布,过去一年我们主要在做技术追赶。现在谈超级产品有点像问一个1岁的孩子上大学没有、工作没有。明年我们将推出超级产品,我认为这个时间点已经非常代表中国速度了。中国的应用能力本身就很强,只是现在模型基础还不够,如果模型到了ChatGPT的水平,中国更能开发出更多超级产品。

周鸿祎:我最近在思考的观点,如果仔细看一下Adobe和微软、谷歌做的事情,会发现未来AI可能不是一个独立产生killer APP的技术,而是对已有的技术、流程方方面面去加强的一个技术。所以微软把他所有的产品都加上AI,命名为Copilot(副驾驶)。所以,未来不论是to B还是to C,所有的产品都会被AI重塑,但不一定存在只依赖AI的产品,AI还是要跟传统的业务与产品结合。就像PC最早用来做打字,工业革命之后,PC跟所有的工作与生活结合在一起。

张一甲:大模型从最开始的拼技术、拼参数,到现在拼应用、拼落地、拼生态,接下来会走向什么样的方向?在前段时间OpenAI的开发者大会上,有两个方向很有意思:一是GPT Store,模仿苹果的App Store;二是GPTs,类似AI Agent。我的问题是,GPT Store和AI Agent,是不是下一阶段AI的赛点?

王小川:对于AI应用,中美可能会走出不同的道路。OpenAI能够把技术做到极致,然后开枝散叶,不强调在某一领域中调优,这与它的背景相关,要做通用技术。这是一条道路,但我不觉得OpenAI是唯一的范式。在中国,应用场景落地会更快一些,国内或者美国都有一些公司在端到端地服务,已经有能力在一些场景应用起来,最终都会应用到千行百业,并在一些单点可能出现爆款。

张鹏:最近的热点我们也很关注,尤其是AI Agent这一块。我觉得回到第一性原理,新事物的产生,以及如何应用落地,一切来自于技术本身的革新性和升级。无论是GPT Store还是GPTs,或者API,包括刚才提到的killer app,本质上都得益于基础模型本身能力的增强,确实能够改变很多原来的App开发范式以及应用流程范式。所以,我们期待的是底座模型的能力的爆发。

周鸿祎:我有一些不同的理解。很多人认为OpenAI是为了做一个App Store,但ChatGPT光靠一个聊天对话框、一个Chatbot,大家玩完之后发现其实解决不了问题,跟目前的业务很难融合。我理解,OpenAI做GPTs恰恰是为了解决这个问题,让大家在各个行业、各个业务场景进行深度的定制,来找出杀手级应用。连OpenAI都在寻找。

我对Agent的理解也经过几个不同的过程,最早是斯坦福小镇的25个Agent,当时觉得像虚拟机器人;后来AutoGPT又让人觉得Agent能够自动化地进行任务分解,但结果失败了;这次GPTs背后就是Agent,只是OpenAI故意没有把Agent概念打出来。我觉得,Agent并不是让GPT自动完成很多任务,现在还达不到目标,最重要的价值是让大模型跟真正的业务工作相结合,因为它能自动调动API,有工作流的驱动才能完成工作任务。

张一甲:最后一个话题,AI的派系之争。AI价值观的争论现在在硅谷非常热,大家分化成了两个派系,一派叫e/acc,有效加速主义,比较激进地认为人类应该无条件地加速技术创新,技术爆发一定对人类有好处。OpenAI创始人萨姆(Sam Altman)的做法就很像这一派;另一派叫EA,有效利他主义,认为要尽可能保证AI对人类是有爱的,不能伤害到人类,当AI可能威胁人类,就应该加以阻止。OpenAI首席科学家伊利亚·苏茨克维(Ilya Sutskever)的立场就很像这一派。请问各位,你是e/acc,还是EA?

王小川:一旦贴标签分两类,其实蛮限制自己内心的真实想法的。我在4月10日官宣的时候就写到,我们通过AGI帮助人类繁荣和延续人类文明——并不是把个体的得失看得比较重,而是更看重如何把人类整个群体发展到今天成为伟大的智慧生命体所创造出来的物理规律、文化等发展下去。不管是保守主义,还是激进主义,哪一派能帮助繁荣人类的文明,甚至延续人类文明,对于我们就是有意义的事情。

张一甲:就是说你在两个派系之间游刃有余。

周鸿祎:所以你问王小川这是飞禽还是走兽,他说是蝙蝠。

张一甲:听一下张鹏总的观点,你不要再像小川那么狡猾了。

张鹏:这不叫狡猾,这叫科学的道理,我跟小川的意见有点相似,不要轻易的给自己贴标签,尤其这个标签是别人定义的。做AGI这件事,我们内心还是让这个世界更美好,要让技术服务人类,只不过这两派人会有各自的侧重点,会选择不同的道路、不同的节奏,不像我们中国人的思维会比较中庸。

智谱AI也是一样,纯粹从技术或工程的角度来看这个问题,技术突飞猛进,有原生动力去推动这件事,另一方面在我们所认知的范围之内,尽量保证这些技术的演进不要危害到人类的利益。

张一甲:黄老师应该是e/acc吧?

黄铁军:你可能说反了。我们论坛的主题《一路投奔奇点》,应该反映了当前产业e/acc的状态。

我十年前是e/acc,倒不是我想不想的问题,而是我认为这就是世界发展规律,这是人类的宿命,人工智能一定会全面超越人类。那时候很少有人相信,都说这是科幻,但今天反过来了。

我过去认为,实现AGI要等到2045年,但现在OpenAI说不定10年就能实现,还有2~5年就能实现的说法。不管是多少,其实人类根本还没有做好心理准备被一个更强的智能超越。

为什么说我不是e/acc?尽管我认为它不以人类意志为转移,但我还是倾向于要慢下来——在实现AGI之前,找到一个恰当的共存之道。而现在时间有点紧张,大家很少去想这件事应该怎么做。

我现在的看法是,AGI绝对不能当成大家追求的理想,因为它就是超人,一个比人类全面强大的系统。一旦能做出这样一个系统,一定是它控制人类而不是人类控制它。当然这也不等于是绝对的坏事,不等于它就会毁灭人类,但无论如何,这是人类进化史上的一次大逆转,一定要极其慎重。

张一甲:如果此时此刻有一封公开信号召大家所有人都停下来、一起想一想,你还是会毅然决然地签字?

黄铁军:停下来永远是不可能的,但可以慢一点,或者我们投入更多的资源去想一想,除了往前跑之外,还要想一下后路,想一下可能的共存方案。现在大家的关注度和投入资源都太少。

张一甲:周总你是哪一派?

周鸿祎:我是坚定的发展派。

第一,人们有时候表现的跟他内心想的东西不一样,比如马斯克带头让大家写签名信,说要停下来想一想,但他背地里买了1万块显卡,成立了一个X.AI,他就希望同行们停一停,好让我赶上。包括这次OpenAI宫斗事件,表面看是AI派系之争,但我认为权力斗争的因素也是存在的。

我最近到硅谷转了一圈,现在美国所有的创业公司都在做AI,很多投资人是非AI不投了。为什么英伟达股价涨的这么厉害?它明年的产能都卖掉了。除了互联网大厂搞AI疯狂买卡,创业公司、传统公司也在疯狂买卡,大家都认为AI未来是一场比互联网和电脑更加革命级的工业革命。当年美国战胜日本不仅仅是靠广场协议,而是抓住了PC和互联网的产业升级的机会,而这一次他们想抓住AI的机会。

如果今天没有创新,就没有创造增量的市场,而存量市场的很多矛盾只有通过科技创新才能解决,所以我的观点还是要发展。

刚才张鹏提到要慢慢装刹车,但现在的问题是刹车怎么做都不知道,装在哪也不知道,这就是我们360这种公司的使命。我觉得随着大模型的发展,会从黑盒子变得越来越透明,那么,能不能用一套大模型来监控另一套大模型?能不能在大模型Agent框架里加上安全审计?能不能把这个超级工具放在人类控制范围内?一定要积极地寻找安全解决方案。

电影《奥本海默》我看到的结果是蛮正向的,至少两件事,一是解决了核电站的问题,是真正的绿色能源;二是有了核弹之后,这80年没有大规模战争,形成了制衡后才有了全球化,才有了中国经济的高速发展。

美国也没有几个人是不发展的类型。有的人总要发表一些惊世骇俗的言论才会赢得大家的关注,而全世界都在发展。

美国已经在全力以赴开动下一场工业革命了,我们在人工智能的研究、研发、产品场景中应该给予更多的包容和理解。就像互联网当年也是先发展再治理一样,人工智能在中国还可以充分地发展几年,并带动芯片、大数据、新型工业化等等,这绝对是未来大国角力的关键点,不能出方向性的偏差。

黄铁军:我想评论一下,周总讲的代表了大多数人的观点和心态,也是当今的主流观点。但这就是人类的宿命,我们就得那么走,然后走向了一个回不了头的地方。

周鸿祎:人类没有AI,也会碰到很多解决不了的问题,像老龄化、地球温度问题,最后人类文明可能也就毁于战争了。有了AI之后,也许还能找到一些转机。

张一甲:听出来各位的区别了,小川是“上帝视角”想要自己定义价值,周总是乐观积极的心态,黄老师是悲观悲悯的心态。

周鸿祎:来的都是AI从业者,我给大家一个建议。很多自媒体在网上老是散播焦虑,但有两个原则问题不能太散播了,一个是宣传硅基生物战胜碳基生物,这个在你们有生之年我保证你们看不到;另一个是AI造成大规模失业,这样让很多政策制定者、决策者很担忧,包括企业、政府用AI很有顾虑。我们还是应该一起来推动AI在中国的发展,大家才有商业的机会。

黄铁军:如果硅基代替了碳基,周总有啥行动?

周鸿祎:我觉得就靠我们这些黑客们最后把他们再黑掉了。

我再反击一下。人的大脑虽然不如GPT,不如大模型可以那么无限地加算力,人脑最大的优点是功率低,像黄老师大约有30瓦,我大概20瓦。所以大模型什么都好,最致命的问题是能源问题。如果全球都建超大规模的大数据中心,有可能全球的能源根本就不够用。我觉得不用担心硅基生物超越碳基生物那一天,因为能源如果不能够进步,可能就会造成人工智能产业的停滞。

黄铁军:先分清楚训练和推理,人脑的20-30瓦主要是推理。

周鸿祎:人是推训一体的。

黄铁军:但我们生下来就训练的差不多了。

周鸿祎:反过来,人类如果解决能源问题,很多问题就迎刃而解了,否则马斯克吹再多的牛,星际旅行也是不可能的。人类发展到今天,最近100年里科技突飞猛进,但今天在理论物理、基础原材料还是碰到了阻碍,比如可控核聚变、室温超导。我坚信AI的突破是人类文明有史以来最好的工具。人类文明本身是不是应该跃升,跃升过程中是不是有危险,危险能不能可控,需要有更多的人除了做大模型之外来研究大模型安全。

黄铁军:你说了一段,没说更远。你说的都是从一段时间内解决问题怎么好,或怎么控制安全,但没有说跳下悬崖之后的事,实际上我们现在是不是正在滑下悬崖,都不知道。

周鸿祎:你们俩相信OpenAI的Q*的传说吗?

张鹏:最近看了看,我觉得可能戏说的成分比较多一点。

黄铁军:我相信每个企业都有自己的一些秘密和诀窍,这就是他们的竞争力,我觉得你们也一样。只是诀窍有没有那么强大,没验证之前谁也不好说。

周鸿祎:如果Q*是真的,那你的担忧就比较有力,说明人类在安全上还没有准备好,AGI已经到来了;但我认为Q*是假的,是他们为了给自己找面子编的一个故事,我觉得AGI还有时间,我们还能留出更多的时间想安全的问题。

黄铁军:我说AGI在2045年能实现,是10年之前,那时候根本就没有OpenAI,也没有Q*,有或没有,都不影响这件事的发生。

张一甲:黄老师和周总面对AGI的观点很像是“掉下悬崖派”和“悬崖前刹住车派”。黄老师说,你不管刹车刹的多好,最终是悬崖下面见,周总说,我的刹车技术可以发展的足够快,在到达悬崖之前刹住这个车。今天的交流非常充分,感谢各位嘉宾的精彩分享。