获得诺贝尔奖的AI教父辛顿,后悔了

出品|虎嗅科技组

作者|余杨

编辑|苗正卿

头图|视觉中国

10月8日消息,2024年诺贝尔物理学奖出炉,多伦多名誉教授杰弗里·辛顿(Geoffrey Hinton)和普林斯顿教授约翰·霍普菲尔德(John Hopfield),这是两位被誉为奠定“当今强大机器学习基础”的科学家,杰弗里·辛顿更是被称为“人工智能教父”。

瑞典皇家科学院诺贝尔委员会表示,他们的发现和发明为人工智能领域近期的诸多突破奠定了基础。自20世纪80年代以来,他们的工作促成了人工神经网络的诞生,这是一种大致模仿大脑结构的计算机架构。

通过模仿我们大脑建立连接的方式,神经网络让人工智能工具能够“通过示例学习”。开发人员可以通过输入数据来训练人工神经网络识别复杂模式,从而为当今人工智能的一些最引人注目的用途提供支持,包括语言生成和图像识别。

在多伦多大学的新闻发布会上,辛顿表示“大吃一惊:“我对此毫无期待。我感到非常惊讶,也很荣幸能入选。”

出人意料的是,虽被称为“人工智能教父”,但辛顿去年曾告诉《纽约时报》,他现在“后悔自己一生的工作”,也“很难看出如何阻止坏人利用它做坏事”。

他所指的,是人工智能带来的风险。

在今天与记者的电话交谈中,辛顿仍然坚持,“我们没有体验过拥有比我们更聪明的东西会是什么感觉。这在很多方面都会很棒,”他说。“但我们也不得不担心一些可能的不良后果,尤其是这些事物失控的威胁。”

辛顿不是说说而已。据悉,2023年他离开了谷歌,希望能够从行为上引起人们对他推动实现的技术所带来的潜在风险的关注。

2013年,谷歌收购了辛顿的神经网络公司,这家公司是辛顿与两名学生共同创立的,其中一名即包括IlyaSutskever,我们后来了解到Sutskever,是作为OpenAI的首席科学家。

诺贝尔奖委员会表彰了辛顿在20世纪80年代与同事开发出的生成模型——玻尔兹曼机:

辛顿使用了统计物理学的工具,统计物理学是一门由许多相似组件构建的系统科学。通过向机器输入运行时很可能出现的示例来训练机器。玻尔兹曼机可用于对图像进行分类,或为其训练的模式类型创建新的示例。辛顿在此基础上继续发展,帮助开启了机器学习的爆炸式发展。

而辛顿的工作成绩,要建立在另一位获奖者约翰·霍普菲尔德教授的Hopfield网络基础上,Hipfield网络是一个可以重建模式的人工神经网络:

Hopfield网络利用物理学来描述材料由于原子自旋而产生的特性——自旋使每个原子都变成一个微小的磁铁。整个网络的描述方式与物理学中自旋系统的能量相同,并通过寻找节点之间连接的值来进行训练,以便保存的图像具有较低的能量。当Hopfield网络被输入扭曲或不完整的图像时,它会有条不紊地处理节点并更新它们的值,从而降低网络的能量。因此,网络逐步找到与输入的不完美图像最相似的保存图像。

2016年,诺贝尔文学奖颁给美国词作家鲍勃·迪伦(Bob Dylan),这一要闻就曾引起轩然大波,他的获奖理由是“用美国传统歌曲创造了新的诗意表达”。

今年,诺贝尔物理学奖更是颁给了计算机专家。有网友调侃道:“连诺贝尔奖都来蹭AI的热度了”。

但在争议的背后,或许我们更应该关注的是学科的融合和知识体系的多维化,那些在学科交叉领域所裂变出来的增长点,以及随之而来的“看不见的冰山”。

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com