观念平台-AI风口浪尖上的选择

面对当今AI风口,选择好好学习并运用AI仍比选择忽视更为适当,惟未来AI世代对政府、社会、家庭及个人而言,都是前所未有的挑战。图/美联社

2023年号称生成式AI元年,ChatGPT的发布让大家惊声连连,AI从过去仅能执行单纯任务,语音助理不时冒出「抱歉,我不懂你的意思」,突然进化成可将复杂资料整理归纳重点、写报告、写程式、诗词对句、编写歌曲、创作图片及影片,并展现专家水准。此一惊人进步让大家看见其潜力,微软火速入股ChatGPT开发商OpenAI,Google、Apple、Amazon及Meta也加快脚步投入研发,面对AI大爆发,学者比拟当今为AI的工业革命。

■三种机器学习法交替或 合并使用,让AI更强大

AI的智慧来自机器学习,学习方法分为监督式学习、非监督式学习和强化式学习等三类。监督式学习系指工程师先将电脑要学习的物件做标记,电脑在学习过程中透过误差比对,不断修正以达到更精准的预测,此方式优点是准确率高,缺点是需仰赖大量事前人工作业,当范围扩大时将难以持续。非监督式学习则不设定任何限制,电脑透过检视大量资料寻找潜在关系,例如比对可能导致患者生病的原因,适用于资料探勘初期或大量资料比对,缺点是造成较多功耗,也可能将不重要的特征过度放大,造成结果偏误。强化式学习是不给电脑任何资料,让电脑从互动中学习,电脑自环境的正向与负向回馈中学习并逐步形成预期,使达成目标的行动越来越有效率。

以上这些方式透过神经网路演算法平行运算、分析机率、推测使用者想法并产生结果,工程师亦可对演算中所设参数权重进行微调,三种学习方法可合并或交替使用。

此外,AI对语言的掌握度也有长足进步,透过检视大量文学作品、维基百科及聊天纪录等资料,AI知道语言的语法结构,透过分析知道每个字后面适合接什么文字,一点一点把句子完成。此与人类的思维逻辑不同,人类心里会先想好一个句子的大概内容才讲出来,但电脑在出现前半句文字时,甚至还不知道后面要说什么,不过透过高速运算,一样可以生成出非常逼真的语言,甚至让我们在对话时感觉不出差异。ChatGPT系OpenAI第四代模型,过去因为语言模型容量不足导致效果不佳,演进至今才一鸣惊人,可见大语言模型是AI成功的关键之一。

以目前发展模式来看,AI最适合担任助手角色,如电影钢铁人中Tony Stark那位得力的AI助理Jarvis,它可以帮忙检视现场是否有危险状况、有哪些逃生出口、有多少敌人,检查钢铁人的身体状况及盔甲损坏情形并协助更换零件等。AI可以是一位称职的助手,但它仍需要能掌握全局,也懂得如何下指令的伯乐。如同AI可以为电影生成特效与音乐,但若缺乏一位好导演来设计故事内容,安排铺陈方式及优秀的演员诠释,那只会让这部电影显得虚有其表。台积电创办人张忠谋说未来透过AI协助,更多人可以自己创业,但「没有创意的创业,通常不会成功」,可见AI仍然须与适当的人搭配才能发挥最佳效果。

■利之所至弊亦随之,股神巴菲特示警

但AI并非完美无瑕,许多人担心可能造成严重失业、诈骗或形成自我意识反噬等问题。AI在应用上仍遭遇许多困难,如完全自动驾驶汽车迟迟无法上路、麦当劳得来速AI点餐变成灾难现场等,但预期AI神速的进步仍将持续蚕食人类工作,科技专家李开复认为将造成50%白领工作者失业,以金融、医疗、法律及教育等产业首当其冲,「唯有顶尖者才能生存」。特斯拉执行长马斯克也曾说AI技术是他「最大的恐惧」,未来「可能我们谁都找不到工作」,但他瞄准节省人力成本仍推出Optimus机器人为特斯拉寻求业绩蓝海。股神巴菲特示警AI可能导致诈骗横行,并将AI与发展核武相提并论,认为让精灵从瓶子放出来并造成负面结果后,已无法再让精灵回到瓶中。

对于AI形成自我意识事,李开复认为未来十年可能性不高,但他认为AI带来的真正危机不是奴役人类,而是让人类丧失斗志;曾参与ChatGPT开发,来自英国爱丁堡大学资讯学院的Mirella Lapata教授认为,与其担心未来不确定的事是否发生,不如关注迫在眉睫的气候变迁问题,若认为AI技术可能被误用,亦可参考核能的作法,由政府进行管制。

因此,面对当今AI风口,选择好好学习并运用AI仍比选择忽视更为适当,惟未来AI世代对政府、社会、家庭及个人而言,都是前所未有的挑战。