时论广场》尽信ChatGPT不如无ChatGPT(张瑞雄)

(图/达志影像)

从2022年底至今,整个科技界最热门的话题之一就是由OpenAI公司所开发的ChatGPT交谈机器人,尝试模仿人脑和模拟人类的交谈和写作的能力。

人类的大脑估计包含500~1000亿个神经元,这些神经元透过复杂的网络互相联络和触发。ChatGPT的类神经网络则有多达1750亿个参数,已达人脑神经元的规模,但这些参数的连结和其彼此的关系则不如人脑的复杂,所以或许在推理或同理心等需要复杂神经元连接网络的能力尚不如人类,但因电脑记忆不会失效(除非硬体故障),所以在资料的记忆是远远超过人类的。

人类的大脑透过和环境的接触和教育来训练,人类的各种感官将收集到的资讯送到大脑,编织大脑的网络。当遇到事情需要处理时,大脑就启动网络的相关部分,如过去经验的网络,来寻求答案。ChatGPT也是需要训练和学习,人类喂给它的资料包括相等于5700亿字元的文字资料,上亿个符号资料,主要包括网路上找得到的所有网页资料、英文维基百科和上万本书的语料库。而且因为它有完美的记忆,所以它看过就记住,当你问他问题时,或许它已经看过类似的问题和答案,如果没有,它可以从类似的资料中编出一份答案。

看到ChatGPT的热潮,国科会也说要发展台湾自己的ChatGPT,以避免ChatGPT的「偏见」。问题是聊天机器人技术背后的大型语言模型,需要前述大量资料的训练,还有包括后续维护所需要的电脑计算资源,台湾是否可以负担得起?所以与其花费大量力气建立台湾的ChatGPT,倒不如将资源用在如何利用ChatGPT让台湾各方面都能获益。例如政府各级机关目前的网站有哪些可提供交谈式机器人来解答民众的疑惑,先把这些小的ChatGPT建起来绝对要比建国家的ChatGPT重要。

既然ChatGPT是从现成的网路大海中和书本中学习,虽然有些资料会事先标注为是有偏见或是错误的资料,但资料量毕竟太大,不可能请人一一标注,所以ChatGPT就难免会学习到一些错误或带有偏见的内容,因此在回答问题时也就不可能是完全正确可信。

这就正如俗话所说的「尽信书不如无书」,因为书本的内容有些也是错的,还好我们从小学习有老师教导我们哪些是错的,ChatGPT只有资料标注人员,只能对部分资料注明属性或是否错误,不像老师会说明原理并教我们举一反三,让人类有更高的判断力和理解力。

所以「尽信ChatGPT不如无ChatGPT」,对于ChatGPT所给的答案,我们必须先怀疑其正确性,尤其用在攸关重要事情的地方。但在人工智慧的风潮下,加上媒体的炒作,某些人可能只好拿ChatGPT的答案来当成最终的答案,未来的世界将会真假难分矣!

而且第一版的ChatGPT只是个开始,下一版的ChapGPT绝对会更聪明,未来人类如何自处和维持人类的尊严,这才是更须深思的问题!

(作者为前国立台北商业大学校长)