剖析生醫產業導入生成式AI的機會與風險:該如何做好準備?

左起:勤业众信风险咨询服务资深执行副总经理陈威棋、赛诺菲香港台湾公共事务企业沟通暨健保事务处长蔡德扬、德勤商务法律事务所合伙律师熊诵梅、台湾人工智慧发展学会理事长暨辅大副校长谢邦昌、勤业众信生技医疗产业负责人虞成全、工业技术研究院产科国际所副所长张慈映、勤业众信医疗照护产业负责人林彦良; 摄影:北美智权报/李淑莲

※如欲转载本文,请与北美智权报联络

李淑莲╱北美智权报 编辑部

AI + 生医,1+1是不是一定会大于2? 这是一个值得探讨的问题。勤业众信联合会计师事务所与环球生技于7月初举办了「AI浪潮席卷生医:策略布局实务与指南」论坛,邀集产业领袖与调研机构分享善用AI应对新局之道,并发布《透过AI与GenAI实现生命科技产业的转型价值》报告[1]。报告指出,生成式AI在过去一年半的时间,协助企业拓展了AI的价值范畴。为确保能成功推动大规模的AI转型计划,企业必须于组织内进行「心态、领导型态、投资态度、企业文化及运作模式」5大关键改革,以运用AI助攻企业全方位推升价值。论坛讲者剖析了生医产业导入生成式AI的机会与风险,并对企业该做的准备提出建言。

AI为推动生医产业转型的重要关键之一

台湾人工智慧发展学会理事长暨辅大副校长谢邦昌在致词时表示,近年来,AI技术迅速发展并广泛应用于新药开发、诊断、医疗流程管理及保险理赔分析等领域。全球AI生命科学市场规模推估在2023至2032年的年复合成长率达19.9%;而AI医疗照护市场于2022至2030年的年复合成长率更高达37%,充分显示出AI在生医产业中的巨大潜力。此局面不仅激励了业界对AI技术的信心,更需透过各领域专家间的讨论与分享,推动整体产业迈向更为稳健与成功的数位转型之路。

勤业众信生技医疗产业负责人虞成全则指出,「生医产业此刻正迎来重要转捩点,而AI与生成式AI即是关键」。虞成全表示,勤业众信研究发现,平均营收650~750亿美元之全球TOP 10大型国际药厂/生医公司,在五年内扩大应用AI,将有机会创造出50至70亿美元的最大价值(peak value);其中,近九成价值来自将AI应用在「研发、制造与供应链、商业活动」三大功能部门。不只国际大药厂,科技公司、AI新创、医疗院所等都加入了AI智慧医疗生态系中,因此,组织如何实现AI数位革命带来的潜在价值,并有效管理相应的风险,显得格外重要。

「信任」为生成式AI在生医领域推动成功的关键 法律能提供保障?

在AI 、以及生成式AI呈爆发性成长的今天,如何有效规范成为众业者及使用者最关心的议题。德勤商务法律事务所合伙律师熊诵梅表示,欧盟理事会于2024年5月21日正式通过AI法案(EU AI Act, AIA),预计是全球的主要经济体中,第一个具法律拘束力的跨行业、跨地域AI框架,部分规定预计今年即可生效。AIA以采取风险导向的监管设计(Risk-Based Approach),将市面上的AI区分为「不可接受风险、高风险、有限风险、最低风险」,分别课予不同的监管义务;并以AI用途的广泛程度,画分单一用途AI与通用用途AI(GPAI),且对于后者有着更严格的要求,提醒企业须注意在快速变化的科技环境中,妥善运用智慧财产管理制度以避免法律风险。

不过,熊诵梅认为,在任何产业发展之初,法规可以慢慢来,让产业可以先自行摸索、成形,待水到渠成的时候,自然会知道什么该管、什么不该管。

另一方面,勤业众信风险咨询服务资深执行副总经理陈威棋指出,生成式AI正为生医产业带来变革性的创新,从新药开发、医学影像分析、诊断辅助、个人化精准诊断和智慧医院等应用,期望可改善医疗体验,提高医疗品质并降低医疗成本。然而,「信任」是生成式AI在生医领域推动成功的关键要求。针对生成式AI应用在面临风险及各国瞬息万变的监管环境下,企业如何确保在导入生成式AI时兼顾创新与责任至关重要,并提醒应遵循风险为导向的原则,建立全面AI风险治理框架,以打造可信赖的永续发展AI产业生态系。

陈威棋强调,资料治理及管理人才及风险方面的管控,是未来生医医疗产业在推动生成式AI的时候,最主要的一个考量方向。导入生成式AI对企业而言是一种变革,在整个变革的过程中,要如何保有一个稳健的治理机制,是全球目前在建立法规时最在意的议题。因为生成式AI不是一个产品、不是一种技术、也不是一个算力的问题,它是整个管理的议题。在导入的过程中,组织(政府单位、企业、学研单位)是需要做很多准备的。

图片来源:《透过AI与GenAI实现生命科技产业的转型价值》报告;2024勤业众信

风险谁来控管?

就帐面上而言,生医产业引入AI是利多的,像是有助新药开发时间缩短、制程效率的提升等等;但在利多的背后,风险要由谁来控制?陈威棋提出了显而易见的6大风险,包括:

(1) 偏见风险:在一些相关临床的实验里面使用到的一些资料数据,由于本身可能不是很完备,便可能会对特定的一些族群或特定的类型,产生偏见或歧视的现象。如此一来,会不会导致我们的模型、一些智慧医疗的医材或设备有误诊的情况?

(2) 黑箱的决策:由于模型太复杂了,现在谈的所谓一些厉害的大型模型,虽然很多阐述,但到底他最后结果怎么出来,其实是大家没办法解释的。假设病患询问:「到底为什么结果是这样子?」,如果没有办法把黑盒子打开,也无法得知答案。

(3) 集中委外风险:很多一些顶端的平台,很多相关的人工智慧医材解决方案,有太多技术集中的风险。假设这个主要平台出现问题,即会影响整个医疗产业。

(4) 隐私保护的问题:患者的病历、疾病的诊断或治疗方式,都应该进行相关的保护措施。假设有不当的使用或外泄,会影响到病患的权益。

(5) 责任归属的不确定性:在法律的议题里面,这是蛮大的重点。假设未来我们很信任一个相关的人工智慧系统作出了一个决策判断,但结果却导致我们做了错误的决定,那最后责任到底归属在那一方?

(6) 监管的困难:这一部分有蛮大的挑战,由于AL/ML本身的复杂性,以及药厂方出于利益及专利考量,许多资讯无法公开,造成监管困难。

现今,整体生技医疗产业面临人工智慧监管的需求是肯定的,除了欧盟的人工智慧法案外,全球各地也有很多特别的规定。特别是在美国,像是美国食品药物管理局(U.S. Food and Drug Administration,FDA),在最近几年有很多针对新药开发使用AI的一些征询意见,包含针对一些人工智慧智慧医疗器材的方面的要求、也有针对像是GMLP如何成为一个良好的学习实践的意见。

备注:

1.《透过AI与GenAI实现生命科技产业的转型价值》报告

半导体科技杂志(SST-Taiwan)总编辑

CompuTrade International总编辑

日本电波新闻 (Dempa Shinbun) 驻海外记者

日经亚洲电子杂志 (台湾版) 编辑

延伸阅读&电子报订阅连结:

【详细内容请见《北美智权报》361期;欢迎订阅《北美智权报》电子报】