揭密AlphaGO开发历程!Google:要创造卓越的智慧科技

记者洪圣壹/首尔报导

针对此次的人工智慧科技 AlphaGO 与天才棋王李世乭的对决,稍早DeepMind 执行长 Demis Hassabis接受台湾中国媒体访问时,透露自己开发 AlphaGO 的初衷与未来愿景目标并不是锁定在 2020 年,而是更长远的未来。

Demis Hassabis 为 DeepMind 共同创办人暨执行长,DeepMind 作为受神经科学启发的人工智慧公司,于 2014 年 1 月被 Google 收购,传闻收购金额达 4 亿美元,成为迄今最庞大的欧洲收购案

Demis 目前担任 Google DeepMind 的工程部副总,带领 Google 团队积极投入人工智慧的研发。Demis 时候是一个西洋棋神童,仅仅 13 岁棋艺已达大师等级。当时 Demis 的棋艺仅次于国际特级大师波尔加·朱迪(Polgár Judit),为世界段位第二高的棋手。在提前两年完成 A-Level 考试之前,17 岁的 Demis 已编写好了销售超过数百万的「主题公园」(Theme Park)模拟游戏

谈到开发 AlphaGO 的初衷,DeepMind 执行长 Demis Hassabis 提到他小时候很喜欢西洋棋,到了大学时期朋友疯狂玩围棋,那时候用的就是 IBM 开发的深蓝,那时候就觉得要开发一个可以学习下棋的机器。因此这个概念从 20 年前就有了,但是直到两年前才开始做。

目前 AlphaGO 的开发团队一共有 9 个人,3 个人是 Google 内部员工、3 个人是DeepMind、另外三位则是业界人士,而之所以会从中国的围棋出发,Demis Hassabis 表示,是因为中国的规则电脑比较容易懂、容易吸收。

而 AlphaGO 以一套名为「蒙地卡罗」的运算技术基础,搭配类神经网路,从世界棋手、人类专家技术细节,进行像是象棋、围棋等棋局对弈的研究,然后透过两个阶段的机器学习,第一段是人工喂资料给电脑去运算,第二阶段是给予电脑在比赛过程中去学习的程序,不管是赢还是输输,每次比赛过程都会把经验学进去。这个第二阶段采用的技术,叫做类神经网路,主要是透过云端运算的方式,进行深度学习,然后进行「策略网络 (Policynetwork)」与「价值网络 (Valuenetwork)」的分析,程序就像人类的大脑一般,会有自己的思考模式,这也是为什么 AlphaGO 可以持续进化。

Demis Hassabis 表示,AlphaGO 的正式比赛只有在 2015 年 10 月跟欧洲围棋冠军对弈过,会找专业的人的原因,主要是希望能够把AlphaGO的名声流传下去,把它创造成一个事件,让大家记住这个事件,而在李世乭之后,不排除会找其他更多新秀来对战。

Demis Hassabis 强调,人类学习跟机器学习的差异都是一种演算的方式,人类或许可以做得更好,因为他们不用去过滤、处理这么多资料,而且可以从其他人指导,但是 Deep mind 只能自我学习,自己去想像可能发生的状况。因此他认为,或许 10 月份的 AlphaGO 打不过李世乭,但是经过机器学习的模式与调整,现在的AlphaGO反应已经更快、更聪明,所以要让大家期待明天的比赛。

谈到 DeepMind 的终极目标,Demis Hassabis 表示,首先是要创造出更卓越的智慧科技,当然,从 Google 角度就是要要聪明解决人们碰到的问题,帮助人类打造更好的生活环境