法律观点-AI辅助判决真的只是辅助吗?
司法院审慎发展生成式AI应用,公告将推出「智慧化裁判草稿自动生成系统」。图/freepik
AI anchoring bias (AI锚定偏误)讲的是一种使用人工智慧(AI)工具的心理效应,当人类要对抗AI决定时,会觉得AI已经是大数据分析后的结果。因此,相较于去否定一个人类做出的决定,拒绝AI决定需要更大的勇气,这也是司法院公告将推出「智慧化裁判草稿自动生成系统」后,法界人士最主要的担忧。
即将出台的金管会AI指引也令人引颈期盼,与司法院不同,这次金管会的AI指引,不是金管会本身要做AI,而是提供一个方向,让金融机构在往AI前进的路上,有个方向可以依循,不会这么胆战心惊。
那么,我们就先回到法学界对AI的讨论。首先,要先介绍一个HIC (Human in Command)概念。早在2017年,欧洲就有倡议「应该采取HIC方式去监管AI」,这个HIC(人在指挥)的概念是,「机器仍然是机器,而且人类总是能控制机器(where machines remain machines and people retain control over these machines at all times)」。另一个观念是HITL (Human-in-the Loop),依照维基百科的解释,HITL是一种需要人类介入互动的模式 (a model requiring human interaction),譬如在机器学习阶段,人类可以去调校这个AI模型,避免它产生对人种或性别的歧视结果,后来也有人说,调校参数已经是Human-on-the-Loop (HOTL),就是人类在跟机器互动的过程,会一直给机器反馈,去改善它的表现,这时候人已经退缩到「监督」的角色,而非与机器「共存」的HITL阶段。最后是Human-above-the-loop (HATL),在这个阶段,人类只有机器出错时才会介入。
■台湾「智慧化裁判草稿自动生成系统」,尚无法协助法官判断
那么,外送、订房或叫车的App,它们应该是属于哪一种呢?大家应该都有跟这些App互动的经验吧,即使莫名奇妙被取消,消费者也无法叫App「揣共」(出来解释)或更正,但多数App还是找得到真人客服处理客诉。因此,连日常生活都可以走到HATL阶段了,法院的「智慧化裁判草稿自动生成系统」是属于哪个阶段呢?按照司法院112年9月27日新闻稿的说法,「认定事实部分完全由法官自行决定,系统无法协助法官判断」,这显然尚未到HATL的程度。
另一个问题是,依据欧盟的人工智慧法案,我们可否要求司法院将「智慧化裁判草稿自动生成系统」的演算法形成过程公开?这个要求有点让人为难,当我们谈到AI的黑盒子(Black Box)时,有法律黑盒子和技术黑盒子,法律黑盒子指的是,公开可能会侵犯到营业秘密,譬如我们无法要求叫车平台公开它的演算法,因为那是它的秘密武器,而技术黑盒子指的是,机器为什么作出那样的决定,即使公开了我们也无法理解。
■要求AI透明性,恐成犯罪者规避的巧门
那么,会不会有一天,检察署会有刑事侦查AI?如果有的话,那演算法更不能公开了,一旦公开了,罪犯就知道怎么去躲避侦查。刑事侦查AI也许太遥远,银行的AI洗钱防制系统已百家争鸣。如果一旦公开,车手就知道如何闪避,那AI的透明性要求,就跟训练这个AI模型当初的目的相违背,在这种前提下,我们是否能例外允许AI不具透明性?
这些问题好难,我们也不应该期待金管会出台的AI指引或司法院的AI一次到位,而是应该先肯定台湾主管机关在AI世界混沌未明时,就已经有领先其他亚洲国家初试啼声的勇气,笔者很期待看到主管机关发展更多的AI应用。