數位部力推可信任 AI Meta、OpenAI 初步同意送 AI 評測

数位部长唐凤。(余弦妙/摄影)

数位部8日指出,人工智慧(AI)近期蓬勃发展,日前邀请国际重要AI厂商进行交流,Meta、Google、Microsoft、OpenAI 等与会厂商皆认同AI须具备可信任、准确性及安全等重要特性,其中 Meta 与 OpenAI 已初步同意将送测,另外国内业者有在发展大型语言模型的如联发科(2454)、台智云等也在接触中。

数位部表示,为确保AI应用与全民利益保持一致,去年5月数位部正式成为国际非政府组织「集体智慧计划」合作伙伴,参与对齐大会专案,协助我国在全球公众领域上,凝聚民众对于人工智慧需求与风险之共识,共同处理「人工智慧对齐问题」;数位部致力推动可信任AI及数位信任环境,为使AI的应用是可靠的,且为避免生成式AI所生成的错误、不实及伪造讯息及图片流窜,参考国际政策、标准与产业需求,成立AI评测中心、发布AI评测指引,目前也针对大型语言模型(Large Language Model,LLM)进行评测,逐步成立验证机构和实验室,推动AI评测与验证,建立国际交流合作。

为从个人、利害关系社群及国家层面探讨AI的发展对社会的影响,数位部去年办理二场「AI未来民主化」审议式工作坊,邀请相关利害关系人讨论如何因应生成式AI发展。从参与者讨论及回馈中,可了解从资料搜集、处理到数据运用,都需要照顾社会对AI伦理的不同期望。

为进一步回应各界对正确应用AI于公共治理的期许,数位部与国立阳明交通大学科技与社会研究所、财团法人工业技术研究院以及史丹佛大学审议民主中心等单位合作,于今年3月23日举办「运用AI促进资讯完整性审议式民主活动」,透过「111」政府专用短码简讯平台,随机发送简讯邀请公民参与。共邀集450位专家学者、公民、社群和数位从业者,线上讨论运用AI来辨识和分析资讯的完整性等相关议题。活动引起广大回响,可见民众对于AI运用于推动资讯完整性具有高度期待。

数位部并在4月17日邀集重要的AI国际厂商,就强化平台的分析及辨别机制、及将语言模型(LLM)提送AI评测中心等议题作讨论。与会厂商包含 Meta、Google、Microsoft、OpenAI,皆认同AI须具备可信任、准确性及安全等重要特性,并指出开发语言模型过程中,皆有其团队负责对辖属模型进行持续性测试与训练调整,以符合可信赖AI系统的期待;对于其开发中的语言模型,提供给AI产品与系统评测中心(AIEC)进行评测皆持正向态度,Meta 与 OpenAI 并于会中初步表示同意。

数产署副署长林俊秀补充,目前在AI评测主要还是针对在大型语言模型进行评测,例如 TAIDE、ChatGPT 等这类大型语言模组,观察目前国内厂商虽然也有自己在研发,但主要都还是自己在使用并未听到有贩售行为,但数产署仍会积极去接触,盼能引导业者来进行评测,不过评测与否并没有强制力,只能用正向鼓励方式来吸引业者主动评测,未来如果业者评测通过,也会在网站公布提供民众了解,这样也算是变相帮助到业者。

此外,对于生成式AI内容进行分析及辨别方面,国际厂商皆在会中提出已建立或即将导入的相关作法,包括 SynthID 技术(用于AI生成图片中建立浮水印,或侦测AI生成图片中的浮水印,以方便辨识AI生成的图片)等AI生成内容侦测技术、溯源标注及签章、用户检举机制,以及提醒用户注意AI生成内容等作法。

会中搜集与汇整民众及AI国际厂商的意见,未来数位部将持续敦促网路平台业者推动资讯辨别与分析机制,而使用者于网路平台所刊登或推播之内容,若含有使用深度伪造技术或人工智慧生成之个人影像,应明确说明或标注,以确保资讯完整性。

数位部指出,面对AI技术带来的资讯完整性挑战,需要平台、政府和民众的共同努力,借由建立透明的监管机制,并加强公众对AI生成内容的辨识能力,以促进资讯真实性与完整性;民主审议亦将强化社会韧性,未来数位部也将持续建立兼顾科技创新及风险治理的可信任AI发展环境,包括人才优化及留才揽才、重视AI伦理法制、推动资料治理及流通,建构以人为本的健全数位生态系。