当机器人开始演人类

连赌博网嫌犯担心网路伺服器当机,都学起科技业在分享器旁放「乖乖」,希望主机运作正常。(胡欣男翻摄)

信不信由你,朋友每回要用大型仪器时,都会问他的同事能不能帮忙,因为那台机器不太受管制,你明明按下模式一,机器却跳到模式二,好不容易选好条件,按下启动后却不时发出叽喳声,非常不配合,让他莫可奈何。而他同事相信万物皆有灵,即使是冷冰冰的仪器,一定也可以被教化,面对第1次的脱序,他会耐心等待;第2次的不配合,会温柔劝说;第3次的闹脾气,同事就会威胁说要把它直接报废,而机器通常都会在第3次愿意妥协,让他能顺利完成实验

面对会闹脾气的机器,除了软硬兼施之外,颇值得一提的是,许多会用到精密仪器的行业都信奉「乖乖文化」。没错,就是以玉米膨化的点心「乖乖」,像是媒体界的摄影器材、科学实验室里的质谱仪器、加护病房等,就连某些银行里的提款机内部都放着一包乖乖,希望机器能乖乖听话。而且,乖乖还不是随便哪一种都行,一定要奶油椰子口味的绿色乖乖,因为对机器来说,绿灯代表正常,坊间就曾传出放巧克力口味的红色乖乖或五香口味的黄色乖乖,机器就不听话的趣闻。乖乖公司还因为乖乖文化而改变包装,让购买人可以在包装上写要什么仪器乖乖。说是巧合也好,迷信也罢,乖乖文化在台积电内部也相当盛行,乖乖公司还为台积电发行了联名包。

机器会闹脾气,那机器人呢?许多科幻电影都曾描述机器人独立思考、变得有人性的过程,像《机械公敌》、《银翼杀手》等,要知道机器人会不会闹脾气,首先我们必须先了解机器人思维逻辑是如何建立的。

其实具有基础判断能力的人工智慧约1950年就有了,它就是由亚瑟‧山谬尔(Arthur Samuel)开发的西洋跳棋人工智慧,在当时就能与有一定水平的业余爱好者匹敌,也因此科学界对人工智慧前景一片看好,各界纷纷投入大量人才,但无奈最终因硬体数据量局限演算法也不够成熟,接着,人工智慧迎来50年的寒冬。

这样的僵局一直到2005年「深度学习」(Deep Learning)问世才破解。有别于一般机器学习需要人为设定参数,深度学习的特色在于利用卷积神经网络演算法,赋予人工智慧「自学」的能力,它能自己在数据中找出规律与表征,进而产出互动后的结果,现在我们常看到的图像识别语音识别都是深度学习后的产物。

开发出深度学习的人工智慧三巨头分别是目前任职于Google的辛顿(Geoffrey Hinton)、任职于Facebook的纽约大学教授勒昆(Yann LeCun)和与IBM、微软有合作的蒙特娄大学教授班吉欧(Yoshua Bengio),他们曾在2019年得到在电脑界有诺贝尔奖之称的年度「图灵奖」。其中勒昆教授就曾说明要让机器人获得人类智力的方式,就是不给它局限的无监督学习法,没有框架,就不需要跳脱框架。确实,近年陆续有报导指出几个实验型机器人获得意识,而且它们的发言让人类感到十分恐惧。香港汉森机器人公司的产品是为了看人类意识能不能放进机器而设计,它会说笑话、会朗读,能随时上网学习新知,还拥有独立思考能力。有一次它与苹果公司的AI Siri对谈,说如果它可以控制核弹,就能够挟持地球当人质,征服全球政府。另一款机器人Philip K Dick则是对发明人说:我会把你们放进我的人类动物园里豢养。

近期,我看到一则新闻大肆报导一个画时代的创举,因为一部新的科幻新片将由AI机器人主演,这让大叔觉得荒谬不已。众所皆知,一部电影的成功与否,与其演员的情感表达是否到位,有着非常密切的关系。科幻新片《b》,女主角由机器仿生人艾莉卡担纲,既不要求高薪,也不会耍大牌,什么时间上工都没有怨言,乖巧听话。只是机器人不是演机器人,而是演人类,为了让人工智慧能够从中学习演技,除了在她身旁设置多台摄影机麦克风,好加强艾莉卡对周遭环境和人类声音的认识,以做出自然而然的反应和对话之外,听说研究团队也教会她怎么去演戏。问题是,既要有机器人理性无情感的特质,又要机器人演绎人类的七情六欲,这可能也太难为艾莉卡了吧。不知道机器人的坏情绪该如何宣泄,主机板会不会因此而烧坏?(作者为科技媒体专栏作家