周伟航/电脑赢了会觉得快乐吗?

▲AlphaGo 与棋王李世乭人机大战!受到全世界瞩目。(图/翻摄自DeepMind)

文/周伟航

Google发展的人工智慧AlphaGo对决韩国棋王李世乭,初期电脑取得一连串的胜利,加以媒体一再宣称李世乭是「人类最后防线」,因此这样的科技进展,也让许多民众感到恐慌,认为电脑威胁人类的日子已经到来,甚至主张人类的文明因此将归于「虚无」。这就有点过头了。

人类下棋输给电脑,就代表电脑将在所有领域征服人类吗?这类推未免太快太急。就算人工智慧能在接下来的日子里有爆发性的成长,「电脑」和「人脑」仍有一些关键性的落差,而且这落差是在程式逻辑语言诞生之初,哲学家就思考过的根本鸿沟。要说明这概念并不简单,但可以从下面这个问题开始:

「一台觉得很快乐的电脑,它的快乐是真的快乐吗?」

许多人看了科幻片,会对片中机器人或电脑的真挚反应所感动,甚至认为那根本和人的情感没两样。如果机器人真能「表现」出情感的话,我们也该把他们当人看。

但有不少学者认为电脑的情感和人类的情感不同,电脑依其程式语言,只能「表现」或「模拟」人类的情感,不会是像人类那样透过外在环境与个人生命史的交错而产生情感。

当然也有物理主义者主张,人的思想也不过是一些物理和化学反应,也是种依照特定的「程式」跑的机械,所以情绪反应也是程式跑出来的结果。这当然也有其理,不过要掌握这种「程式」,可能还需要上百年的科技进展,甚至永远办不到。

▲电脑没有人生,其快乐也就不如真人棋王那么丰富。(图/翻摄自DeepMind)

人的快乐悲伤,除了直接生理反应之外,还包括了许多社会与文化的要素,这使得人人的喜乐成因不同,一个人在不同时空中的反应也会不太一样,因此很难找到可完全掌握快乐悲伤的学理方法。

举例来说,我们可以透过吃药或电击创造某种爽,这种爽的生理机制可能和考一百分时的爽一样,但我们人类还是对后者状况有所偏好,也认为考试的爽与电击的爽在意义层面有所不同。这个「意义」层面,就是哲学问题之所在。

下围棋的游戏规则与胜败相对简单明确,电脑则可以运用能力优势超越人类。但我们对于喜乐哀苦没有共识,连「目的」都不一了,电脑再好,又要如何参与这场不确定终点的竞赛

人类的行为目的具有价值,而价值又可区分为两类,一类可客观量化计算,一类无法量化计算,前者被称为「外在价值」,后者为「内在价值」,快乐与幸福主要属于后者。

无巧不巧,发明上述这组区分的学者,就是用下棋当例子。下棋取胜的技法,在某种程度上可以用钱掌握,但下棋的乐趣是买不到的。我们下棋,要的不只是赢,还想透过下棋这个休闲活动,去获得一些快乐或幸福感

回到围棋的人机决战,电脑就算把所有人类都清盘了,在「量化」的角度赢过了人类,它将因此感到快乐吗?

应该不会。这人工智慧是专注应对棋赛策略,并非用于模拟人的情绪或创造类似的氛围。就算它赢了之后,在荧幕上显示个笑脸图,比个赞,甚至发声告诉你它很爽,我想多数人也不认为那是真正的「快乐」。

「赢」有某种客观价值,但那只是「外在价值」,棋赛的快乐等「内在价值」,是在竞赛过程中透过和对手斗智产生的,这和一些人生经验相关,电脑没有人生,无法延伸出这层意义,其快乐也就不如真人棋手那么丰富。

而且并非成为「宇宙最强」才有乐趣,两个棋艺很烂的人,仍然可以比得非常高兴。就算比赛输了,人类仍可能觉得快乐,可能是比上次输得少,又或者是学到一些东西。想想围棋界高手看到AlphaGo的行棋怪招时所产生的省思

我们下棋的快乐不会受到AlphaGo的影响,那它可能成长到反噬人类吗?许多科幻片会让你这种担忧,不过目前各种人工智慧都还缺乏探求「终极目的」能力,这会使它只能停留在「工具」的阶段。

试想,如果问AlphaGo:「你干嘛那么认真下棋呀?」它会怎么回答?

它可能完全无法回答,因为这不在它的人工智慧设定中。就算能回答,很可能也是如Siri一样,上网捞一个人类现成的答案来回应你,像「我被老板逼的」「我只会下棋」。

当人被问到:「你为什么要那么认真打电动呀?」我们可能会捞别人的答案回应,但你也能连结回生命经验,透过自己的「终极目的」来回应这个问题。就算你没想过,你也大概知道这问题没有标准答案,只有最适合自己的答案。

▲AlphaGo处理围棋,目的很单纯,就是赢而已。它能生出专属于自身的幸福吗?(图/翻摄自DeepMind)

►►►掌握最新观点,给88论坛粉丝团按个赞!

因此,就算AlphaGo回答:「我觉得能下棋很幸福。」我们也会怀疑它是否清楚自己在讲什么。而到目前为止,只有人能思考拥有不含工具意义的「终极目的」,也就是「幸福」这概念。但每个人对幸福的内容设定都不同,往往来自于我们所属的社群,千变万化,十分复杂。

没有具体的「人生」,就无法统合生命历程中的各种目的来指向一个「终极目的」。AlphaGo处理围棋这个活动,其「目的」很单纯,就是赢而已。但他能产出进一步的目的吗?他能检讨过去的行动,以生出专属于自身的幸福吗?

想想它下赢人类的王者之后,能干嘛。和自己下棋?人类棋王不下棋,还多的是事情可以做,而专门下棋的电脑呢?它知道自己不下棋时要干嘛吗?

AlphaGo的确是个不错的下棋「工具」,依人工智慧发展的态势,将来也可以运用在很多层面,但它还是随着人的(可能是Google工程师的)终极目的来成长,始终是个「工具」,只是达成「目的」之「手段」。若它们只是工具,就不会有真正的威胁性,只需要担心用它来行恶的人。

那它们什么时候会「不再只是工具」呢?

随着类神经网路发展,也许将来在解题的过程中,它会突然开始将这些推论过程用以反省自己,并产生不受人控制的目的。这就可能让它成为威胁了。

我们无法得知或预知那是什么时候,因为这大概会是它们开始思考:「为什么我要下棋?」而且不告诉你的时候。

觉得害怕吗?其实也不用过度担心。因为现在发展这种科技,还是有一定的商业考量,所以基于投资者的利益,研发者不会让这个人工智慧开始思考自身目的。

就像压榨劳工的老板,不希望他的员工进行批判思考以成为「觉醒公民」,这人工智慧的拥有者,在正常状况下也不会让这机器开始思考自己,才能永久奴役这头怪兽

这是否让人感到庆幸,又有点悲哀呢?

●作者周伟航,笔名人渣文本,经营粉丝专页特急件小周的人渣文本」,辅仁大学哲学博士专长伦理学,曾从事政治公关工作,目前为时论专栏作家。本文不代表公司立场。