信用评分算法治理:算法规制与产品责任的融通

摘要:在数字经济生产中,信用评分算法对主体利益产生比传统征信技术更深远的影响。当前信用评分算法制度存在利益与风险失衡问题。信用治理动态调整使得信用治理机制具有规范互动的不确定性。需要树立规范技术运行、激励技术创新的共识,运用算法规制结合产品责任的治理逻辑,在“融通并行”理念引导下,形成新型信用评分算法治理方案。算法规制用于识别与测量信用评分算法风险、实现风险合理分配之目的。产品责任制度为信用评分算法运用中的主体权益分配达成较为明确的预期且需做现代化调适。前者为后者的适用提供缺陷检测时点与降低缺陷认定困难。平台可利用信用评分算法规制的具体内容做出有利于己的证明,获得一定的技术创新激励。

关键词:信用评分;个人征信;算法规制;信用治理

当前,信用法治建设不断深入开展。培育与发展征信市场对数字经济发展十分重要,也是未来信用治理的重点工作。2021年,《征信业务管理办法》首次将互联网平台生产的信用评分纳入监管范畴,展现了一定的官方立场。信用评分是个性化推送、筛选排序等下游商业行为的基础。信用评分算法运行存在难以避免的偏差,容易导致不利后果的弥散,产生错上加错的恶性循环。随着算法逐步渗入社会经济生活的方方面面,各种算法在技术动因、运行机理、风险挑战与损益界定方面存在显著的差异,必然导向不同的法律回应路径。信用治理机制具有独特的规范互动性。现行制定法难以对信用评分算法施加有效的约束与激励。我国首部有关算法规制的《互联网信息服务算法推荐管理规定》,也仅是强调对信用评分算法应用后的算法推荐行为予以规制。有鉴于此,本文力图构建算法规制结合产品责任的信用评分算法双轨治理方案,合理协调主体权益,科学分配技术风险,形成具有针对性的制度安排。

一、信用评分算法的现实治理图景

信用评分算法运行中发生的信用判断偏差,既可造成个人的实际损失,也可影响个人的预期利益。与传统征信技术比较,信用评分算法运用更容易产生主体利益冲突问题。当前,信用评分异议数以十万计,法律能够提供的救济措施却是沧海一粟。信用评分算法治理主要涉及的征信管理制度、个人信息保护制度、产品责任制度与责任保险制度在利益分配与风险承担上存在不同程度的失调。

(一)信用评分算法运行中的利益冲突

信用评分算法运行通过人工编程由参数驱动,基本流程包括数据采集与筛选、统计模型开发与优化等。在信用评分算法设计、生产、应用与优化的过程中,方法选择、样本处理、权重设置、变量取舍都取决于技术专家的主观判断。具言之,信用评分算法运行偏差及其后果可归纳为两个基本类型。

第一,直接导致个人经济损失的信用评分算法偏差。大数据技术能够实时采集数据,在理论上能够避免人工操作的失误,却可能被设计为“抛弃”标识符中的细微差异,在数据转换为机器识别码时出现“视而不见”的问题,造成个人的直接经济损失。例如,Trans Union曾因未能区分相差一位数字的两个社会安全号码,而将两个人的坏账与信用档案混淆数年之久,导致其中信用本应良好的个体以更高价格获取生活必需的产品与服务。又如,低芝麻信用分个人无法在阿里健康合作的公立医院获得预先诊疗、延后付费服务,在急症发作时可能不得不承担更高额的私人医疗费用。

第二,影响个人预期利益实现的信用评分算法偏差。在信用评分算法的开发、设计与优化过程中,首先要求对信用做出主观定义,将信用程度划分为多个层级。为避免个人成为“统计学推论下的合理受害者”,需通过重设变量、权重与临界点等多种方式调整统计模型。此外,为保证样本的动态平衡、尽量反映个体的信用特征,还需对数据重新抽样。上述因素使得信用评分算法偏差难以避免。由此导致的信用误判将显著地影响个人未来可能获得的财产利益与经济机会。实践中,六年仍未毕业的博士研究生会被判断为“缺乏自控力”,被划为低信用程度个体,面临更严苛的授信条件与较高的借贷利率。

从技术角度还原信用评分算法偏差的形成过程,其难度极大。信用评分算法通常作为商业秘密保护。据报道,芝麻信用分开发团队有百余名工作人员,仅核心成员了解算法系统内核。Zest Finance亦在专利申请书中对其信用评分算法采用的变量做模糊处理。学者大多从外部视角观察统计模型的一般规律,倒推获得信用评分算法运行机理与潜在风险的知识。至于何种变量最为重要,模型如何计算,计算结果是否准确,均难以确定。信用评分算法无法排除主观价值判断。开发者通过统计等方法增加中间层次进行模型拟合,之后还会不断地新增变量。信用评分算法偏差实际面临无法解释的技术困境。技术专家的介入有助缓解两类信用评分算法偏差,同时也将更多的人工干预整合进机器学习。这使得信用评分算法运行成为区别于传统征信技术、人机紧密结合、平台利益与个人利益交错的复杂活动。传统征信技术所要预测的目标一般只是个人信贷账户在未来特定时期内“变好”“变坏”“维持中性”的概率。用于建立统计模型的变量都是经济意义上的有关交易细节、行为特征的客观记录。与之相对,信用评分算法源于平台在网络环境中控制风险、传导信号的商业需求。信用评分算法运行中的信息不对称程度越高,越有利于平台的经济利益。其使用平台控制的各类信息数据,广泛地用于社会经济领域。不仅直接影响个人的既得利益,还会带来强化不利的持续性后果。故信用评分算法相比传统征信技术,对主体利益具有更加深远的影响。

截至2022年1月10日,在“百度知道”以“芝麻信用申诉”为关键词可检索到逾31万条结果,以“芝麻信用修复”为关键词可检索到逾17万条结果。个人发现信用评分算法输出不恰当的信用评判结果时,大多无法获得法律救济。仅在第三方提供的信息确实有误、不可抗力、他人冒用、系统错误四种情形中,方能获得平台提供的有限救济。值得反思的是,出于回应魏则西事件、滴滴大数据杀熟事件、朱烨诉百度案等社会焦点问题的考虑,《个人信息保护法》《电子商务法》《民法典》已经开始重点治理商业营销算法应用行为。当前,信用评分算法尚未引发较大的风险事件,信用评分算法运行中的利益冲突未能获得足够关注。

(二)风险分配与利益协调的制度失衡

平台生产的信用评分不仅为数字经济活动传导风险信号,也是数字信用共治的有效工具。信用评分具有一定的公共物品属性。信用评分算法治理既是公法上的命题,也是私法上的命题。其主要涉及征信管理制度、个人信息保护制度、产品责任制度与责任保险制度等法律规范(参见表1)。其中,前两类制度一般统称为个人征信制度。四类制度规范在回应信用评分算法运行的特定技术风险时,不同程度地存在主体利益保护不周延、技术风险分配不均衡问题。

1.个人征信制度的风险分配失衡

第一,征信管理制度回避风险分配。《征信业务管理办法》是最新颁布的核心规范。该办法第50条将以信用信息服务、信用服务、信用评分、信用评级、信用修复为名义提供征信服务的行为纳入适用范畴,但并未对此作出详细解释。立法文本与立法起草说明中回避了大数据应用对个人征信究竟造成哪些变与不变的分析,而是在用语上去除“大数据”的痕迹,采取刻意牺牲精确来成就表面的“大数据化”,以维持其征信统一监管法的风格。这反映出举棋不定的立法态度,不利于保证立法技术和立法语言的逻辑性、精确性与可操作性。进一步分析,监管活动本质上是根植于专业技术开展的、效率与分配相分离的决策活动。监管者不应是中立的规则制定者。监管活动应当采取促进各方主体协商的合理形式。中国人民银行作为征信管理制度的制定者、实施者与监督者,倾向于采取最有利于增进公共利益的立场。出于金融监管活动的独特性,中国人民银行在征信监管活动中还存在以指标、目标、统计、认证等模式取代法律规范的明显倾向。以征信管理制度为主导的信用评分算法制度设计,容易模糊政治决策与经济决策的界限,忽视平台对信用评分算法享有的经济利益。

第二,个人信息保护制度不适当地减轻平台的风险成本。《个人信息保护法》能否直接适用于信用评分算法存疑,还在行为指引方面显著缺失针对性。该法对个人信息自动化处理行为适用的一般规则作出规定。其中,第24条与第55条分别提出信息处理者应当向信息主体履行告知与说明义务,与透明、公正、公平、合理、事前评估的义务。根据该法第73条对自动化决策的界定,上述条款仅是针对完全由计算机程序开展的分析、评估、决策情形而设。信用评分算法的设计、开发、应用与优化均是难以剥离人类决策的复杂行为,故存在一定的个人信息保护法律适用问题。

2.产品责任制度的利益协调偏差

信用评分算法是否构成《民法典》《产品质量法》《消费者权益保护法》意义上的“产品”,是决定其能否适用产品责任制度的根本因素。立法上未明确规定信用评分算法是否构成“产品”。理论上也暂未形成统一的观点。信用评分算法是人的发明创造,未完全脱离“物”的范畴。能够规模化生产、销售与应用的算法,其开发者一般具有更强的风险控制能力与成本承担能力。将信用评分算法纳入“产品”范畴,还有助于激励缺陷检测行为,鼓励技术创新。因此,对信用评分算法适用产品责任制度具有一定的合理性,但是存在相当的适用困难。整体来看,信用评分算法与自动驾驶汽车代表的可大规模工业化生产的人工智能产品差异较大,其从设计开发到优化应用并不是从无形到有形的过程,难以通过现行产品责任制度预防风险与权衡利益。

第一,信用评分算法缺陷与责任的认定异常复杂。与自动驾驶汽车不同,信用评分算法一般不存在制造缺陷与说明缺陷,却可能存在设计缺陷、警示缺陷与跟踪观察缺陷。其中,设计缺陷不一定是明显的漏洞而更可能是推断的漏洞。用于训练信用评分算法的信息数据往往形成于特定的历史背景,“带有特定场景中的歧视烙印”。信用评分算法缺陷难以依赖已知的技术标准识别,其与偏差结果之间未必具有直接关联关系。开发者常能依据《产品质量法》第41条进行发展风险抗辩,将有失理性的技术创新行为不恰当地合法化。而个人不具备与之相当的技术能力,难以就信用评分算法缺陷与损害后果之间的因果关系作出证明。

第二,产品责任制度只救济受害人遭受的实际损害。信用评分算法偏差不仅造成实际经济损失,更将致使个人丧失未来的经济机会。传统征信的法律救济较少关照预期利益。这是由于,传统征信的基础法律关系是民事法律关系,适用填平性赔偿原则。当交易发生在个人与金融机构之间时,个人权益属于金融消费者权益范畴。法律无需再对预期利益提供特别保护。而信用评分算法开发者与个人具有实质不平等的关系。其中的个人权益与平等民事主体权利存在本质区别,也不必然属于金融消费者权益范畴。保护个人预期利益的考量应当被纳入信用评分算法治理之中。产品责任制度对此存在局限。

第三,严格责任归责原则难以适应数字经济的发展需求。对信用评分算法适用严格责任可能对开发者过于苛责。产品责任适用严格责任原则的理念,建立在早期仅有产品制造缺陷的司法判例基础上。研究发现,严格责任的设计和运用与技术创新密切相关,容易导致较高的法律成本,不利于激励企业大胆地实施创新行为。由开发者预知与防范信用评分算法运行可能引起的所有危险,易使开发者承担过于严格的责任内容,牺牲其技术创新积极性,最终将不利于信用评分算法的更新迭代。

3.责任保险制度的调整功能丧失

信用评分算法不应适用责任保险制度。信用评分算法的保险责任认定、保险费率与赔付费率认定均存在困难。保险责任认定需满足产品缺陷、损害后果与因果关系三项要素,同样存在因缺乏直接因果关系而产生的责任认定问题,丧失迅速赔偿而无关损害的制度优势。此外,保险行业定价的基本原则是:大量收集被保险人的各类信息,依据被保险人的风险预期,由专业人员就收益与风险做出极为精细的测算,得到最终的价格。被保险人的风险预期包括索赔概率、索赔成本、价格承受能力等因素。而信用评分算法偏差所导致的收益与风险很难以货币计量。保险公司亦面临缺乏科学论证的巨大压力,难以发挥责任划分与定损赔偿的经验优势。

更为重要的是,信用评分算法责任保险可能加剧我国保险业的整体成本。在世界范围内,人工智能产品的保险成本呈现不断攀升的趋势。德国《道路交通法第八修正案》将系统故障导致人员伤亡事件的最高赔偿额由500万欧元提升至1000万欧元。美国的商业实践也显示,无过错保险制度的成本远超预期。我国则面临着压降保险业整体成本的迫切需求。自2016年起,保险业不当创新现象频发。因保险资金涉及公众利益并可能引发系统性风险,自2018年以来的监管重点是化解前期遗留的金融安全重大问题,促使保险资金运用回归收益稳定、回收期长的实体经济领域。

信用评分算法责任保险的创设与我国保险业的现实需求相悖。信用评分算法运行涉及大部分互联网使用者。将开发者纳入信用评分算法强制责任保险的投保主体范围,虽然能够救济个人的损失,但保险公司此时只是承担一种过渡角色。其必须向个人提供损害补偿,又将因取得代位求偿权,面向微观经济行为的众多主体而产生巨额费用。相比之下,2021年底中国保险行业协会发布的《新能源汽车商业保险专属条款(试行)》则允许保险公司就智能辅助驾驶软件的承保获得额外收益。可以发现,自动驾驶汽车的责任保险机制更加成熟,其可通过费率改革等多项制度的配适,实现压降保险行业综合成本的目标。

综上,有关信用评分算法的治理呈现出显著的利益分配与风险承担失衡。就个人而言,个人实际损失在产品责任法律层面一般可获救济,但是救济机制的启动受到科学认识的制约而存在困难。同时,侵害预期利益才是信用评分算法运行中的重大风险所在,却难以受到产品责任制度的调整。就平台而言,现行制度存在全有或全无、两极分化的利益保护弊端。在信用评分算法运行中,当平台的经济利益受到忽视时,其承担的义务内容和风险成本就难以合理设置。

二、“融通并行”治理理念的提出

信用评分算法运行带来新的技术风险,引发风险的再分配与利益的重新协调。需要通过算法规制与产品责任的结合,弥补难以深入信用评分算法细枝末节的缺憾,实现信用评分算法治理的整体进化。概言之,有效的信用评分算法治理方案应当实现算法规制与产品责任的“融通并行”。

(一)算法规制结合产品责任的治理逻辑

信用治理一直处于调整与渐进的过程。信用治理机制只能在特定的文化、经济、制度条件下维持暂时的均衡状态。信用治理机制具有丰富的内涵,既包括与信用相关的强制规范,也包括有关信用的其他规范。在强制规范的干预与扩张下,其他规范自身不断进行调整,最终往往也会融入强制规范。这正是信用治理规范互动性的反映。

算法规制与产品责任相结合,能够为信用评分算法的治理实践提供具有实用性的制度条件。算法规制难以单独发挥作用,其就问题解决方案讨价还价寻求重叠性共识,本质上是一种相机行事的规制措施,难以在复杂活动中客观地取舍创新活力与主体利益。将新兴技术风险通过裁断行为后果的方式固定下来,有利于推动技术的理性运行,也有助于应对信息社会技术水平突飞猛进的现实。而产品责任滞后于新兴技术的发展水平,是几乎每一社会文化环境中都会出现的正常现象。算法规制注重对经验事实的认知和验证,有助于通过行为逻辑的塑造,对新兴技术施加可操作的约束措施,发挥制度规范的激励功能。

算法规制与产品责任的“融通并行”,不可避免地存在多种价值观与规制效能整合的剧烈挑战。故更应形成一些基本共识,减少规范互动带来的不确定性。最首要的共识应当是促进信用评分算法的规范运行。信用评分算法运行有别于一般信息处理行为,是在整个社会范围内发生的信息固定、评价与传递。只有信用评分算法规范运行,才能在信息公开与信息保护之间寻求价值平衡。除此以外,还应重视平台在信用治理领域的技术创新潜力,促进个人征信市场的错位互补与繁荣发展,弥补管理型政府治理机制对社会活力与创造力的牺牲。两者并重方可有效地发挥信用治理机制的约束与激励功能。

基于此,算法规制结合产品责任的治理逻辑有助于改善主体技术水平差异引发的利益与风险失衡状态。信用评分算法起源于商业需求,更多地运用于商业领域,只有在信用联合惩戒的特殊场景中才可能具备公法规范的直接适用空间。信用评分算法难以有效治理的根本原因是运行机理与实施标准不易为个人获知。这加剧了信用评分算法侵害个人权益的现实风险。算法规制结合产品责任的治理逻辑能够突破信用评分算法的认知困境,以程序化的实施标准揭开技术面纱与提供救济渠道。产品责任更多地修补破损的社会结构,预防信用评分算法风险的功能相对有限。算法规制则有助于落实与细化激励措施,防范信用评分算法发展中的各类风险。

两种规范各自利弊共存。算法规制重在事前预防与事中干预。其直接作用于信用评分算法的设计、生产、应用与优化过程,使信用评分算法的运行变得透明,令难以窥见的技术行为变得有迹可循。个人就信用评分算法享有的权利并不构成私法上的绝对权,而是个人信息保护体系中的若干权能。这些权能具有典型的软法性质,存在救济能力匮乏的问题。产品责任作为调整私主体法律关系的成文规范,旨在事后弥补损害。其为个人提供明确的权利基础与有效的损害救济,却无力深入信用评分算法运行的各个细节。

两者在规范方式、结构、功能、目的方面互为补充(参见表2)。算法规制并不挑战产品责任,而是为产品责任的有效性提供识别与量化风险的必要知识,向个人提供更充分的防御手段和更丰富的救济途径,从而在根本上解决信用评分算法运行对个人预期利益带来的危险。产品责任也须通过算法规制确立的行为准则,为主体利益协调提供制度支持。在这个意义上,两者具有整合形成新型信用评分算法治理方案的可能。

(二)旨在分散风险的算法规制框架

风险在脱离主观价值判断后,才具有对比、选择与接受的意义。算法规制框架是分散信用评分算法运行风险的务实选择。其有利于将事前难以获知的技术细节还原为合理性问题,利用正当程序嵌入治理实践。

1.信用评分算法规制框架以有限的算法透明为原则

信用评分算法规制框架可在技术创新与风险预防之间实现基本的平衡关系。为防止“刷信”“炒信”等违法行为,避免评价结果失真,信用评分算法不对外公开实属国际惯例。本文认为应对信用评分算法适用有限透明原则。

第一,结合信用评分算法的影响范围、平台的竞争优势与市场地位等因素,以不公开为原则,以公开为例外。State of Wisconsinv.EricL.Loomis案可以提供一些镜鉴(见Statev.Loomis,881N.W.2d749(2016),No.2015 AP157-CR,decidedon2016-7-13)。因限制准入而形成垄断地位或国家财政资金支持的信用评分算法,其性质更接近公共物品,能够对个人信用作出带有国家公信力的价值判断。例如,中国人民银行征信中心开发的信用评分算法,百行征信与朴道征信开发的信用评分算法,其关涉知情权与监督权等基本权利,应当在一定程度上降低保护标准,向社会公开,受到更加充分的公众监督。而大型平台开发的信用评分算法,应当限定于向特定行政主体公开,通过行政备案方式实现算法透明,确保信用评分算法始终处于可监督、可理解、可预测的状态。新兴平台开发的信用评分算法,出于激励创新目的,可以考虑仅向自律组织注册,实现一定程度的算法透明。

第二,以信用评分算法的解释性说明为披露内容,而非其源代码。对于平均理性自然人而言,披露源代码并无助于理解信用评分算法如何运行。以解释性说明为主要披露内容,正是对普通人也有权了解信用评分算法之需求的适当回应。欧盟GDPR第12条算法规制条款亦是将“透明性”理解为“可解释性”。参考《人工智能投资顾问监管指南更新》,信用评分算法的解释性内容一般可包括功能介绍、假设条件、理论局限、固有风险、设计者与管理者说明、所有权、潜在利益冲突、历次测试与调整情况。

2.信用评分算法规制框架以保护人的自主性为基点

从人认识、理解、防范与拒绝承受算法风险的基本需求来看,算法结果拒绝权能与算法解释请求权能最突出地体现个人在信用评分算法面前的主体地位。

第一,算法解释请求权对个人自主性的形成与维护具有不可替代的作用。从信任生产机制的角度来看,个人有理由期待在信用评分算法发生错误与危害风险时,平台以负责任的态度迅速作出回应。就救济机制的启动条件而言,只有算法解释请求权可由个人完全基于自己的立场启动。就权利行使成本而言,算法解释请求权要求既向个人解释信用评分的形成过程,也向个人提供有关信用评分调整方式与调整影响的行为指引,避免信用评分纠纷直接进入行政干预或司法救济环节,有效节约社会资源。

第二,算法结果拒绝权向个人直接赋予人类干预、价值衡量与结果修正的机会,避免其沦为信用评分算法的“纯粹客体”。考虑到信用评分算法的动态演化,算法结果拒绝权的行使需要受到直接重大影响条件和正当理由豁免情形的限制。前者应结合个人利益受侵害的潜在危险、信用评分算法的市场占有率等因素判断。后者则要求平台不得违反个人信息保护规则,除非法律明确作出规定。

以保护个人自主性地位为基点,还能够引申出一个由多种算法规制工具组合而成的信用评分算法规制框架。该框架在解释、验证、评估、问责等多种算法规制工具之间建立起有机联系,协调与跨越不同的规制安排,形成一定的规制结构,保障普通人也有机会理解信用评分算法的技术原理,事先做出保护自身权益的适当安排。算法规制工具可大致分为算法监督工具与算法问责工具两种类型,每一类中又可开展更加细致的分层设计。

(三)权衡主体利益的产品责任制度

主体利益需要通过相对固定的权利义务结构加以权衡。以产品责任制度协调信用评分算法运行中的主体利益,既具有必要性也具有多方面的可行性。

就其必要性而言,信用评分算法具备高度的行动能力,却与平台的价值和行为绑定。信用评分算法在运作方式上比普通产品更具复杂性,在致害范围上比普通产品更具扩张性,与平台的关系也较普通产品更为紧密。由平台作为设计者与开发者承担信用评分算法产品责任,是“成本-效益”经济分析的结果。产品责任会施加私人成本。例如,信用评分算法缺陷的识别与解决均需要相应的支出。通过设置产品责任诱导最适合进行“成本-效益”分析的主体承担信用评分算法缺陷的代价,达到帕累托最优结果,是实现主体利益协调的必然选择。

在其可行性方面,信用评分算法的运行过程大体对应着产品的设计、生产、制造、流通与优化过程。严格责任归责原则可以最大程度杜绝信用评分算法缺陷的发生与存续,督促责任主体尽可能地在信用评分算法运行中保持审慎。产品缺陷的责任承担方式大多可适用于信用评分算法致害场合,如赔偿损失、消除危险、排除妨碍、警示与惩罚性赔偿。此外,“发展风险抗辩”的免责事由在一定程度上亦有助于维护平台的经济利益。

产品责任制度虽能达成较为明确的利益分配预期,却存在不可避免的利益协调偏差。产品责任制度不足以独立回应信用评分算法运行带来的危险,需针对信用评分算法运行,在以下两方面做出一定的现代化调适。

在判断标准方面,现行产品缺陷的判断标准难以直接辨识信用评分算法缺陷。传统上,产品缺陷的不合理危险与未达到技术标准两项判断依据均与产品的质量标准相关,主要反映在产品的物理性能与使用性能上。在信用评分算法缺陷认定中,这两种标准难以解决“信用评分算法做出有悖伦理的决策是否属于产品缺陷”等新的具体问题。此外,要准确判定信用评分算法缺陷,个人必须能够理解其工作原理与决策过程,这已大大超出一般理性人的认知范畴。因此,必须在算法透明原则指引下,借助新的认知手段克服技术理解障碍,方能真正合理地权衡主体利益。

在举证责任方面,现行产品缺陷的举证责任往往偏重由一方承担,不利于在信用评分算法缺陷讼争中实现主体利益均衡。例如,个人通常仅能收集到间接证据,这些证据的证明效力比较有限。由个人承担举证责任容易加剧个人权益保护的难度。故对信用评分算法采用一般的产品责任举证规则,个人遭受的损失就难获救济。然而,由于机器学习与人工干预的持续发生,平台亦面临信用评分算法运行过程难以还原的技术难题,同样难以通过现行产品举证规则维护自身合法权益。因此,必须借助算法规制框架,方可明确产品责任制度的举证责任分配。

三、“融通并行”治理方案的设计

在“融通并行”治理理念的指导下,本文尝试构建一种双轨治理方案。主要内容包括:信用评分算法规制框架用于识别与测量风险,最终实现技术风险的合理分配。信用评分算法规制框架为信用评分算法产品缺陷提供检测时点,降低缺陷认定困难。在举证规则方面,允许平台利用信用评分算法规制的具体内容,做出有利于己的证明。

(一)算法规制框架下的风险分配机制

在大部分国家,算法规制正处于从学理建议到技术实践再到成文规范的转化阶段。本文梳理现有研究与实践,提出信用评分算法规制框架中至少包含五类风险分配机制。算法偏误检测机制适用于信用评分算法全生命周期。算法影响评估、评分异议与修复、算法审计机制,自信用评分算法进入市场起启动。算法备案机制适用于信用评分算法首次进入市场运行、发生重大修改两种情形。

1.信用评分算法偏误检测机制

信用评分算法偏误检测属于全过程的风险分配机制。作为平台企业内部管理手段,其旨在实现对信用评分算法设计与开发的定期监控,包括:①由监管部门提供统一的格式文本,要求平台完整、无遗漏地对信用评分算法设计与开发的各个环节做出算法偏差可能性的自查检测。②以书面形式做出,作为企业的重要档案文件长期留存。③对市场占有率高、影响范围大的信用评分算法实施更频繁的定期偏误检测。④检测用于训练信用评分算法的信息数据样本,避免在机器学习和特征选择阶段使用的信息数据集无意识地偏向特定群体。⑤偏误检测报告应当采取平实、清晰、可理解的表达方式,避免导致因各方技术差距而造成徒具形式的检测结果。

在发生信用评分异议时,平台应当先行实施信用评分算法偏误检测,努力与个人协商解决。个人要求平台对信用评分算法的机理进行解释,应当举证信用评分算法运行结果对自身权益造成了重大影响。平台应在法定期限内履行解释义务。当个人无法获得解释,或在平台解释后仍存在异议的,应允许其拒绝评分并寻求行政救济或司法救济。此外,鼓励市场主体建立信用评分算法自律组织,就信用评分算法的技术标准、设计流程、准确程度、潜在风险设置不同的认证等级,形成梯度的处罚措施。自律管理情况应定期向公众披露。

2.信用评分算法影响评估机制

信用评分算法影响评估强调损害预防,指按照信用评分算法可能影响的人数规模、市场范围、终端设备等指标,分析信用评分算法开发与应用中可能发生的技术风险与防范方法,划分为若干风险层次,施以不同强度的监督。平台需围绕信用评分算法解释性说明、风险评估、应对预案三项要点,建立信用评分算法影响评估程序。当平台发现无法减轻的信用评分算法高风险时,需在开始处理风险前,向监管部门及时汇报与咨询。信用评分算法风险评估结果应当形成书面报告,经平台的专门责任人发表书面意见后,向社会公众公开披露,并受监管部门审查。

监管机构则应采取标准化方法科学地评估信用评分算法影响程度。至少包括以下两方面:①明确平台启动信用评分算法影响评估程序的条件。《信息安全技术个人信息安全规范》将处理“超过100万人的个人信息”作为风险评估触发点,与域外监管实践相比,判定标准比较单一且有待丰富。②科学界定信用评分算法的风险等级。尤其是对于具有维护公共利益性质、涉及敏感个人信息、运用与影响范围较大的信用评分算法,应由平台依据个人信息保护规则自行评估,监管部门审查评估结果。

3.信用评分异议与修复机制

信用评分异议与修复机制强调损害发生后的救济,要求以信用宣传教育为起点,允许个人便利提出信用评分异议,直观跟踪异议处理过程,免费获取信用评分冻结服务。具体而言:①平台在信用评分算法启动前向个人明确地告知算法设计目的、功能、潜在影响、个人合法权益、程序性保障措施与救济方式。②在监管部门与自律组织官方网页的显著位置,采用简洁易懂的语言,通过问答或指引方式开设信用教育专栏,提供有关信用评分算法的基础信息。③允许具有公信力的第三方开发信用评分异议处理系统,便利个人提出异议申请。④完善信用评分异议处理流程,标记异议信用评分,在限定期限内由平台实施自查、删除、更正、补足信息、评分冻结、通知与备案程序。在特定条件下,平台可就评分冻结行为获得合理对价。个人存在异议的,有权向监管部门提出申诉、复议或诉讼。⑤自律组织明确信用修复机构的资质,定期考核信用修复机构的执业情况。

4.信用评分算法备案机制

信用评分算法备案针对特定情形适用,即信用评分算法初始进入市场运行和信用评分算法重大修改两种情形。信用评分算法的披露对象应当限于中国人民银行及个人信息保护管理部门。根据信用评分算法的影响程度不同,采取行政备案方式或自助登记方式加以披露,其原因如下:①信用评分具有个人征信的本质属性,有必要纳入中国人民银行监管范畴,理顺监管逻辑。②有助于借助平台开发的成熟技术,及时提升大数据监管能力,避免中国人民银行原有的个人信用信息数据库沦为堰塞湖。③有助于中国人民银行调动必要的技术资源聚焦微观风险评估领域。④有助于激励平台不断提升信用评分算法创新能力,客观上打破平台技术垄断形成的“专利丛林”。⑤信用评分算法不能脱离个人信息单独发挥作用,有必要纳入个人信息保护监管范畴。

此外,还应明确信用评分算法的备案内容。参考《关于规范金融机构资产管理业务的指导意见》中有关智能投资顾问算法的行政备案要求,除披露信用评分算法的一般解释性内容以外,平台还应向个人信息保护管理部门与中国人民银行备案信用评分算法主要参数、主要运行逻辑与技术人员。其中,技术人员包括信用评分算法开发的实施人员、管理人员、审查人员、负责任的高级管理人员,对上述人员应采取注册制管理。在平台对信用评分算法的程序、方法等作出重大修改时,应当披露变动原因,向前述监管部门书面说明变动合理性。

5.信用评分算法审计机制

信用评分算法审计则属于兜底性风险分配措施,分为外部审计与内部审计两种机制。就外部审计而言,应由第三方技术团体或研究机构,根据法律法规与监管要求检查信用评分算法风险,发布报告,提出建议。内部审计则应参考国际通行的“三道防线”公司治理结构,在平台内部建立信用评分算法审计机制。信用评分算法内部审计人员职责涵盖信用评分算法与信息数据风险管理的全部要素,包括风险识别、风险动态评估和响应、风险事件沟通,以及企业信息与数据安全战略、道德、运营、报告、合规。信用评分算法内部审计人员应能独立开展审计工作,充分理解信用评分算法,就信息数据保护与信用评分算法治理机制的有效性向管理层提供意见,做出评估,预防风险。

(二)产品责任制度中的利益协调方法

1.信用评分算法的责任主体

需要明确的是,信用评分算法缺陷的责任主体应为平台。平台不是传统上在生产与再生产环节具有明确边界的组织实体。然而,平台技术架构的有效运行依赖能够反映实际控制人意志的公司治理。只有从辨别实际控制人入手,才能清晰地划定平台的组织边界。故本文采取更具整体性的视角,将同一实际控制关系下的平台企业集团作为信用评分算法缺陷的归责主体。具体言之,平台承担信用评分算法产品责任由以下两方面因素决定。

首先,信用评分算法输出的信用评判结果无法脱离平台的利益考量。信用价值取决于社会文化背景,具有丰富的道德意义和开放的概念体系。这使得信用的内涵极具变动性,因时而异,因行为主体而异。信用评分是平台利用大数据与人工智能技术开展的信息处理活动。信用评分算法作为平台的信息处理工具,其运行必须依赖程序员的参与和技术专家的监督。程序员和技术专家有关信用价值的认知均由平台塑造。两者皆难以成为独立于平台的生产者。可见,信用评价算法在存在意义上是中性的,在主体层面和对象层面却完全融入了平台的价值判断。

其次,平台承担产品责任是因应侵权行为法现代化调适的必然要求。侵权行为法上的社会安全义务引导生产者趋利避害,在交易中应注意保护他人权益。在信用评分算法治理语境中,产品责任制度亦具有保障人民安全、增强数字信用的重要功能。产品责任制度发端于信息社会之前。传统产品一经销售,生产者即丧失占有与控制的能力。而在信息社会中,平台对信用评分算法的控制远超个人。平台在信用评分算法的开发、设计、应用与优化等诸多方面具有更强的支配力,产生了新的危险。按照预见可能性理论,信用评分算法运行的风险属于平台的管辖范畴,应当由平台对风险及由此产生的结果负责。在证据规则方面还可做进一步的调整,以适应信息社会的发展演变。

在此基础上,产品责任制度立法升级的整体思路是:将信用评分算法缺陷归纳为设计缺陷、警示缺陷与跟踪观察缺陷三种类型,与信用评分算法的主要运行环节相对应。信用评分算法缺陷的判断应以存在威胁人身安全与财产安全的不合理危险为原则。由于个人的实际损失可较为直观地观察,为避免规则适用冲突应沿用相当因果关系理论。在缺陷认定方面,应以信用评分算法检测、信用评分算法影响评估、信用评分异议分别作为未上市的信用评分算法设计缺陷、信用评分算法警示缺陷、信用评分算法跟踪观察缺陷的检测时点。对于已正式上市的信用评分算法,判断其设计缺陷是否存在,应考察平台是否遵守了算法规制的各项内容。在举证责任分配方面,应采取举证责任倒置的方式,但可为平台设置较为宽松的证明方式。

2.信用评分算法设计缺陷的识别与认定

以“风险-效能标准”作为信用评分算法设计缺陷的判断依据。“风险-效能标准”比较信用评分算法设计的有用性与危险性,检视在费用未明显增加的前提下,平台是否履行合理的注意义务与采取适当的保障措施,确保信用评分算法具有合理与最优的性能。否则,信用评分算法即具有设计缺陷。在“风险-效能标准”的适用中,域外实践大多要求原告提供合理的替代性方案来证明缺陷存在。个人在证明信用评分算法设计明显不合理、提出技术上可行的替代方案时,显著地缺乏能力。因此,采取“风险-效能标准”需采取符合个人技术能力的制度设计,促使个人合理利用信用评分算法规制的内容。

根据信用评分算法的运行阶段不同,划分为两种认定方法。第一,在信用评分算法仅向少数人开放的测试阶段,信用评分算法检验制度可为算法设计缺陷的发现与认定提供准据,与个人的技术能力相当。信用评分算法检验制度要求平台在信用评分算法正式进入市场前,对其进行全面的调适与改进,采用经行业认证的先进而安全的技术,解决信用评分算法在样本标记、变量择取与软硬件设施等方面的缺陷。信用评分算法检验制度能够提供标准化的自查报告与认证报告,协助个人判断信用评分算法是否经合理设计,提出信用评分算法的合理替代方案。第二,在信用评分算法完全开放的正式运行阶段,设计缺陷仍可能不断地涌现与获得改进。个人应考察平台是否已按照信用评分算法规制框架的要求,在发现设计缺陷的每个时点,都相应地采取措施弥补,否则即可主张信用评分算法存在设计缺陷。

3.信用评分算法警示缺陷的认定

信用评分算法影响评估制度可为信用评分算法的警示缺陷提供认定依据。信用评分算法警示缺陷的规避,要求平台以警示发生前的最新技术水平充分预知信用评分算法运行引致的风险类型,在技术升级后及时预见新风险并更新警示内容。对此,信用评分算法影响评估制度正是建立在技术的动态发展进程上,能够促使平台不断地调整信用评分算法的风险等级与治理策略。这样既便利平台在履行“修改设计以消除危险”的义务时谨慎地权衡边际收益与边际成本,也有助于个人借助平台披露的应对预案,识别信用评分算法是否具有警示缺陷。

4.信用评分算法跟踪观察缺陷的认定

信用评分异议制度可为信用评分算法的跟踪观察缺陷设置固定的检测时点。信用评分算法跟踪观察缺陷的解决,要求平台在信用评分算法运行中采取检测记录、信息传递等反应行为,及时将信用评分异议反馈至技术人员解决。信用评分算法跟踪观察缺陷需要设置固定的检测时点,以防止机器学习产生的异化难以及时地获得观察与修正。在信用评分异议制度中,异议申请、评分冻结、评分解冻与评分申诉均可为平台跟踪与观察信用评分算法缺陷设置有意义的节点,为平台判断能否修复信用评分算法缺陷、如何更新缺陷修复程序、何时增加新风险警示提供必要的标识。

⒌信用评分算法致害的举证责任分配规则

法律不能无视损害的发生,必须在侵害人与受害人之间分配责任的最终承担方式。对于新兴科技的设计、开发与生产者,应当通过法律机制的合理设计,既督促其负责任地开展创新,又给予其恰当的宽容与激励。鉴于新兴科技的复杂程度与日俱增,多数观点认为应将产品致害的举证责任分配给生产者。在信用评分算法运行中,个人受技术水平的限制更严重,而平台对信用评分算法缺陷的预见与控制程度更高。故确有必要将信用评分算法致害的举证责任分配给平台,采用举证责任倒置规则,由平台承担信用评分算法不会引起损害的证明责任。

然而,信用评分算法致害的证明规则亟待突破。《产品质量法》未对信用评分算法的产品标准做出规定,相关国家标准与行业标准亦未出台。而相关标准的出台始终面临因来自平台的技术专家必须参与论证过程,而受制于行业利益诉求的风险。故此,根据信用评分算法运行的不同进程,平台就信用评分算法致害的证明规则可进一步分为两个层次。第一个层次是在信用评分算法未正式上市前,平台举证已符合信用评分算法检测机制的要求,即可完成证明责任。第二个层次是在信用评分算法正式上市后,平台举证已符合信用评分算法规制的各项规定时,即可推定信用评分算法运行不构成产品致害行为。

四、结论

信用评分算法的治理是高度技术化的工作,需要形成与其运行机理、行为特征、本质属性、价值功能相匹配的安排。随着人类技术能力的不断提升,人工智能与大数据技术深入开发必然带来更多的技术应用空间与技术规制问题。因此,信用评分算法的治理方案设计需要考虑各种已知的与潜在的风险因素,并随数字经济生产方式的发展而适时调整。

本文提出的治理方案,建立在算法规制结合产品责任的信用治理逻辑基础上,将可缓解当前治理实践中的利益与风险失衡。虽因涉及多重主体而存在一定的实施困难,但具有更为清晰的治理框架、更加丰富的治理层次与预期有效的治理效果。该治理方案建立在“监管主体-平台-个人”结构上,由三项主要的法律关系构成:①在平台与个人的数字信用治理关系中,通过改造后的产品责任制度权衡主体利益,由平台作为产品责任承担主体;②在个人与监管主体的数字信用救济关系中,保障个人在信用评分算法运行全过程获得充分的救济,在最关键的信用评分异议与修复环节形成平台救济、平台监管部门救济、司法救济三重保障机制;③在监管主体与平台的数字信用监管关系中,充分发挥中国人民银行、个人信息保护管理部门的行政职能。从风险评估与管理角度出发,还应将自律组织、公共组织、获得特别经营许可资质的私人组织等社会主体纳入该治理方案,形成数字信用共治机制,更加精确地防范信用评分算法运用带来的风险。

(本文原载于《电子政务》2022年6月8日网络首发版,作者:杨帆,上系海师范大学哲学与法政学院讲师,法学博士。)

声明:转载此文是出于传递更多信息之目的。文章版权归原作者所有,内容为作者个人观点。如有标错来源或侵犯了您的合法权益,请联系我们更正、删除,谢谢。