算法行政问责的机制与评估——基于欧美40份政策的实施分析
张惠彬、王怀宾
摘 要:基于大数据与机器学习的第三代算法推动政府部门自动化行政变革。算法行政放大算法常规风险的同时,也凸显出行政领域的特殊风险。为规范算法行政活动,欧美地区实施了第一波算法行政问责政策。每一政策都反映为一种或多种问责机制,以运行机制和问责主体为标准从中析出科技伦理问责、算法影响评估、透明度机制、行政程序法问责、审计/监管检查、独立问责机构、禁令/暂停措施、政府采购等八种问责机制,分析机制运行假设和实施中反馈的问题。结合行政问责理论对欧美算法行政问责政策进行总体评估,发现现有政策在信息提供、质询强度和有效激励等方面存在不足。政府数字化转型背景下,我国算法行政问责制度需要体系化展开,结合我国现状和欧美经验教训,提出优化算法行政问责制度体系的建议。
关键词:数字政府;算法行政;问责制;政策评估
一、问题的提出
算法行政最初是由比利时学者鲁弗鲁瓦(Antoinette Rouvroy)提出的“算法治理术”(algorithmic governmentality)转译而来,指公共行政部门通过大数据和算法进行自动化操作和决策,进而实现国家治理。[1]第一代算法行政可追溯到20世纪中期,美国兰德公司协助行政部门部署专家系统,以实现税收等行政活动的计算自动化;第二代算法行政出现在20世纪末,法国教育部门以匹配算法进行学生教育分配;最近十年,大数据与机器学习给算法行政带来重大变革。技术层面,算法系统从自上而下的解释模型向自下而上的预测模型转变。相较于前两个时期,第三代算法利用机器学习技术从大数据中析出规则,然后依据该规则对新情况进行预测,具有运行过程难以解释、准确性依赖历史数据等新特征。[2]社会影响层面,算法从私人部门的营利工具转移到国家强制和再分配权力的中心。算法行政具有以下特征:一是强制性,公众无法拒绝算法行政和选择不同算法;二是政治性,算法行政在于执行法律规则而非符合商业规律;三是公益性,算法行政旨在实现公共利益而非私人利益;四是全面性,公众的政治、经济和社会生活都受到算法行政的影响。[3]
政府数字化转型背景下,政府部门开始在不同行政场景使用算法。算法行政放大算法常规风险的同时,也凸显出行政领域的特殊风险。就前者而言,算法行政旨在执行法律规则,算法的偏见与不透明将对被管理者人身、财产造成损害,进一步加剧不平等。[4]就后者而言,一是算法行政挑战传统行政法原则,自动化决策导致申辩和听证等程序性权利被忽视,算法黑箱则导致行政公开原则难以实现。[5]二是算法官僚主义对公共行政价值的挑战,以效率为导向的算法忽略“以人为本”的治理价值;三是算法官僚替代街头官僚,削弱了自由裁量权在行政活动中的意义。[6]四是算法技术中立规避问责,政府部门将责任归结于算法技术问题,以算法决策掩盖真实意图,对现行问责制度造成冲击。[7]
认识到上述问题,近年来欧美地区针对算法行政不断开发新的监管工具,形成了第一波算法行政问责政策。行政问责是指“对不履行法定行政义务或未承担相应行政责任的行政机关及其行政人员进行责任追究”。[8]具体表现为,行政人员有义务就与其工作职责有关的工作绩效及社会效果接受问责主体的质询并承担相应的处理结果。[9]算法行政问责即可以类推为,政府部门及人员就算法行政决策接受问责主体的质询,就其算法行政决策的目的、依据、结果以及行政行为作出合理说明和解释,并以此承担相应后果,旨在促使政府部门负责任地算法行政。当前我国正积极推动政府数字化转型,欧美地区算法行政问责政策的实施经验具有重要参考意义。本文首先考察了欧美2016-2023年第一波算法行政问责政策的实施情况;其次采用马克·博文斯(Mark Bovens)的问责评估框架对欧美政策进行总体评估;最后结合欧美经验教训,提出我国完善体系化算法行政问责制度的建议。
二、欧美算法行政问责政策的分析
欧美地区算法行政问责的第一波政策,始于2016年《法国数字共和国法》,至2023年底《美国关于安全、可靠和可信任地开发和使用人工智能的行政命令》结束。本文统计了欧美地区已经生效且实施的40项算法行政问责政策。①同一政策可能包含多种问责机制,类型学分析可以将纷繁复杂的政策划分为具有典型特征的不同问责机制。首先,梳理政策中创建或引导的问责机制,以机制原理和政策实践进行第一次类型学分析;其次,依据问责主体的不同进行第二次类型学分析。马克·博文斯区分专业问责、行政问责、社会问责、法律问责和政治问责,分别对应的问责主体是专业同行、行政机关、社会公众、司法机关和议会代表。据此从40项政策中析出四大类共八种算法行政问责机制(见表1)。②(① 美国(11)、英国(7)、荷兰(5)、法国(3)、新西兰(3)、加拿大(3)、瑞典(2)、澳大利亚(1)、墨西哥(1)、乌拉圭(1)、匈牙利(1)、芬兰(1)、欧盟(1)等国家(地区)。美国15个地方政府对人脸识别算法系统的禁令或暂停措施被归纳为1项美国政策。颇具影响力的《美国算法问责法案》和《欧盟人工智能法案》由于尚未实施,本文不予纳入。② 现有政策中较少规定针对算法行政的民事/刑事司法程序;而议会代表问责通常是非正式的。)

(一)专业同行问责
专业同行问责是指由行业监督机构依赖行业标准对算法行政进行问责。由于算法行政的兴起,针对技术的科技伦理和风险标准对传统的专业问责进行创新,形成了科技伦理问责和算法影响评估两种机制,前者参照法律伦理、警务伦理等发展而来,后者则是由环境影响评估、数据影响评估等演化产生。
1.科技伦理问责
科技伦理问责意味着所有算法技术的使用都需要遵循一定的伦理标准,算法行政也不例外,旨在通过非强制性的后果和较高的道德水准引导问责对象在算法行政效率和安全之间取得平衡。科技伦理准则通常由政府技术部门或外部行业组织提出,是一种针对新兴技术的软法问责机制。科技伦理准则不设置强制义务,而是为算法行政提供道德原则、合规标准等不具有约束力的指导,政府部门可据此进行自我评估或问责,大致分为三种类型:一是提供道德原则,例如《乌拉圭数字政府AI战略》提出的“尊重人权”等;二是提供合规标准,例如《英国算法透明度标准》提出的算法行政透明度标准等;三是提供具体指导方案,例如《美国AI风险管理框架》提供的风险管理指导书等。
该问责机制建立于如下假设之上:一是政府部门具有提供负责、可信的公共服务的自觉性,外部声誉压力可以作为激励措施,而是否具有法律约束力与政策能否有效实施之间没有必然联系;二是强制性法律规范会抑制政府部门创新,且建立监督和执行机制会增加行政成本;三是在推进算法行政问责的早期阶段,科技伦理准则提炼了各方利益的最大公约数,为后续更加完善的法律框架打下基础。政策实践挑战了部分假设,例如英国数字服务部对《数据伦理框架》实施的审查中指出,算法行政问责领域相互重叠和冲突的道德原则已经趋向饱和,缺少的是确保政府部门遵守这些科技伦理标准的机制。[10]
2.算法影响评估
“算法影响评估(AIA)”是在算法系统使用前和使用中,对算法系统可能造成的影响进行评估,确保算法系统处于风险可知、影响可控的安全阈值内。AIA与环境影响评估具有相似性,都由特定的行业风险标准所约束,主要分为两类:一是针对数据使用的项目评估,例如《欧盟通用数据保护条例》(GDPR);二是针对AI的系统评估,例如《加拿大自动决策指令》。AIA大多包含一个危害、利益或风险的矩阵,但复杂程度有所不同。较复杂的《ADM指令》包括算法设计、影响和数据使用等51个风险指标和34个应对措施的评分;①较简单的《新西兰算法宪章》则是算法系统不良后果和影响的3X3矩阵。②AIA的结果大致有两种,一种是以指标分数适配不同程度或类型的监管审查,例如《ADM指令》;一种是在政府采购中以AIA结果作为采购、拒绝或召回不符合风险阈值的算法系统的依据,例如《印度泰米尔纳德邦安全和道德使用人工智能》。(① 参见《加拿大ADM指令》第6.1条“算法影响评估”。② 参见《新西兰算法宪章》第2页“风险矩阵”。)
AIA建立在如下假设之上:一是基于预先定义的风险和应对措施的矩阵,能够评估算法系统的安全、合理性,并展示政府部门的主观意图和应对措施;二是问责主体有权利要求政府部门解释风险矩阵选择的正当性,且算法系统和影响评估之间的偏差可以得到强制纠正。政策实践表明,第一点假设受到谁来定义、如何定义风险矩阵的影响;第二点假设则常常因为缺乏来自外部的问责机制,使得AIA沦为政府部门自我评估。
(二)社会公众问责
社会公众问责是指社会公众基于知情权、监督权,以及程序正义的原则对算法行政进行问责。传统的政府信息公开和程序正义原则,在面对算法行政时存在局限,由此催生出“透明度机制”和“行政程序法问责”两种社会问责机制,前者面向社会公众对算法生命周期信息的知情权;后者是行政相对人对算法行政行为的申辩、听证或上诉权利。
1.透明度机制
“透明度”机制系指向个人或群体提供算法行政信息,使社会公众了解算法使用情况以实现问责。透明度机制包含两点内容:一是提供信息的类别。包括提供算法源代码、算法运行逻辑以及算法系统结构特征。例如《ADM指令》要求提供算法系统源代码。《新西兰算法宪章》则将透明度要求扩展到数据安全。《英国数据伦理框架》则进一步要求公布引进算法系统的行政程序,包括部署算法系统的好处、存储的非敏感数据和算法系统的解释。①二是提供信息的方式。包括算法登记和常规的政府信息公开。荷兰阿姆斯特丹、芬兰赫尔辛基市等采用了算法登记机制,而除了美国纽约以信息整合的白皮书形式公布以外,法国正在尝试音频、视频和插图等公布方式。(① 参见《英国数据伦理框架》第一部分“了解公众的利益和用户的需求”。)
透明度机制建立在如下假设之上:一是受众能够理解政府部门所公布的算法行政信息,并有权质询。二是信息公开内容适当,不会泄露商业秘密与个人隐私,并确保不会被有心之人利用信息进行“对抗性学习”。②现有透明度机制并不构成问责制的全部内容,也即是算法透明并不意味着算法行政是负责的。实践表明,透明度机制所选择的受众往往无法理解算法信息,政府部门也经常没有适合提供信息的文件,导致透明度机制成为形式。而信息公开与知识产权、系统安全之间的界限难以准确把握,这种不确定性降低了政府部门公布算法信息的积极性。(② “对抗性学习”是指被管理者通过公开的算法信息,操纵变量、取值进而获得理想的结果以欺骗算法模型。)
“行政程序法问责”要求算法行政符合行政程序法,在作出行政行为之前或之后通知受影响的主体,允许其参与听证、上诉,政府部门需要就算法行政作出合理解释。GDPR中听证、上诉的程序性权利限于对个人有法律或重大影响的纯自动化决策,数据主体有申辩和异议的权利,但同时规定了豁免情形。③《新西兰算法宪章》则规定得较为模糊,仅建议“提供渠道来质疑或申诉由算法作出的决定”以及“清楚解释人类在算法决策中的作用”。④《ADM指令》则要求行政机关事先表明决策的自动化性质,作出决定后向行政相对人提供有意义的解释。⑤(③ 参见《欧盟通用数据保护条例》第22条。④ 参见《新西兰算法宪章》所作出的承诺。⑤ 参见《加拿大ADM指令》第6.2条。)
该机制建立在如下假设之上:一是只要有一个人类在算法行政的闭环中就可以确保算法行政是负责任的。算法行政的逻辑分为人在闭环内、人在闭环上、人在闭环外。⑥只有后者意味着纯自动化行政,而行政程序法问责则是将受影响个体纳入纯自动化行政中,在闭环中嵌入人类干预;二是受影响个体有能力识别算法行政的违法性,并积极参与听证、上诉。政策实践表明,被算法影响的个人或群体往往是边缘群体,缺乏能力和法律资源识别算法行政的偏差并参与听证、上诉。并且算法行政并不一定是针对个人的具体行政行为,还有可能是针对群体的中/宏观政策。(⑥ 人在闭环内:算法系统作为决策指导作用,最终的决策由人作出;人在闭环上:人作为监控者,算法系统默认执行决策,除非人作出停止决定;人在闭环外:算法自主作出决策,无人监督。)
(三)行政机关问责
行政机关问责指由内部/外部的公共行政机构或其授权组织,依据行为审计、财务审计等对算法行政进行问责,以确保遵守相关法律规范或技术标准。依据问责主体的独立性和职权不同,可以区分为“审计/监管检查”和“独立问责机构”,前者通常是传统审计机关职能范围的扩张,后者则是新设立的独立、专职的算法问责机构。
1.审计/监管检查
“审计/监管检查”旨在使算法行政合规,可以分为三类:一是由第三方组织根据算法系统的输出来审计算法系统;二是由第三方组织被允许访问算法系统后台而进行的审计;三是组织内部进行的审计。在审计方法上,包括偏差审计和监管审计,前者通过从外部观察算法系统的技术要素(输入和输出),测试是否存在算法偏差。其不需要进入算法系统内部,更适用于外部审计人员;后者则是对整个算法系统进行全面检查,判断是否符合现有法律规范。其需要进入算法系统内部,通常需要法律明确授权。美国匹兹堡阿勒格尼郡针对“家庭筛查”算法系统即采取了外部审计组织和授权审计组织的偏差审计和监管审计。
“审计/监管检查”并非专属于算法系统的新问责工具,而是传统行政问责机制与其他新方法的结合,审计算法只是众多任务中的临时工作。例如瑞典国家审计署《公共管理自动化决策报告》对瑞典政府算法系统的审计。该机制假设条件如下:一是算法系统可以被审计,这要求政府部门能够向审计组织提供审计所需的信息,审计组织根据提供的信息了解算法系统的运作;二是算法系统随着时间和环境的变化,与被审计时是一致的。实践显示,审计环境常常是一种“实验环境”,经过审计的算法系统很可能在新的时间和背景下发生了变化。[11]因此需要持续定期审计,且审计标准的构建同样需要多主体的参与。
2.独立问责机构
“独立问责机构”通过对政府部门算法系统使用提出建议、决定或制裁实现问责,侧重于问责主体的独立性和专职性,分为两类:一是立法授权建立的监督机构,例如纽约自动化决策工作组;二是行政政策建立的监督机构,例如新西兰数据道德咨询小组。工作机制可以分为三类:一是具有约束力的监督机构,有权调查、处理投诉;二是类似道德咨询小组等提供的不具有约束力的指导;三是以资政建议的形式提供给有权许可算法系统使用的机关,例如《奥克兰监控条例》。
该机制建立在如下假设之上:一是独立监督机构能够影响政府部门对算法系统的使用;二是监督机构具有资源和能力理解算法系统,并行使监督权力。一些针对纽约自动化决策工作组的调查指出该机制存在以下缺陷:一是工作普遍不透明;二是缺乏受影响群体参与,且工作组中的政府成员不与非政府成员分享信息;三是未能准确界定应受监督的算法系统范围。[12]另有调查指出,多元学科和社会成员参与能够更好反映多方诉求,例如西米德兰警察数据道德委员会的成员就包括相关学科和利益群体代表。
(四)其他问责机制
欧美政策中存在两种特殊问责机制——禁令/暂停措施、政府采购机制。特殊问责机制不完全满足行政问责制的完整框架,但是适用非常广泛,具有很强的实践性。
1.禁令/暂停措施
“禁令/暂停措施”以关闭或暂停算法系统实现事后问责,一般适用于特定部门的高风险算法系统,例如警察部门的人脸识别算法。其中美国旧金山、西雅图等15个州颁布了针对人脸识别算法系统的禁令或暂停措施。该机制分为两类:一是永久禁令措施,例如美国旧金山颁布的《停止秘密监控法令》,但同时也规定了豁免情形;二是临时禁令措施,例如美国加州颁布的针对警用人脸识别算法的三年暂停令。临时禁令措施允许算法系统在暂停时间到期或满足特定条件后再次启用。
该机制通常是公众在意识到算法歧视或侵犯隐私的实际危害或高风险时,通过提供证据要求政府部门为算法系统使用划定“红线”,建立在如下假设之上:一是永久禁令措施可以杜绝侵犯隐私或歧视的风险;二是临时禁令措施可以督促政府部门在暂停期间建立起问责机制,或设置严格的使用条件。政策实践显示,一些高风险算法系统的使用严重缺乏透明度,例如旧金山警察系统的人脸识别算法,在实施了禁令措施之后才为公众所知悉。而临时禁令期间建立问责机制的期待也常常落空,例如摩洛哥人脸识别算法系统的临时禁令在2020年到期后,并未建立起问责机制。
2.政府采购机制
“政府采购”机制是指通过标准采购程序公开招标算法系统,并基于合同上的权利义务标准条款实现问责。一份针对157个美国联邦政府算法系统来源的调查显示,约1/3的算法系统是通过采购程序从私人部门采购所得。[13]该机制大致分为两类:一是不具有约束力的自愿承诺,例如《加拿大AI采购来源清单》将供应商“证明、承诺在AI道德方面的努力”作为纳入采购来源名单的条件,政府部门从这些供应商采购算法系统将简化采购流程;二是基于采购合同的标准化条款设置供应商的义务和责任,例如《英国AI采购指南》从数据质量、避免偏见、透明度以及问责制等方面明确合同双方的权利义务。
该机制建立在如下假设之上:一是公开招标可以基于竞争和效率促使私人部门以较低价格提供更优算法系统;二是预设的标准条款可以筛除掉不符合透明度、无歧视等要求的算法系统,并提前明确各方责任。除了采购机制的有限适用场景以外(无法适用于内部设计或政学合作),政策实践表明还存在以下不足:一是外部供应商对公共价值、政策法律以及问责制的理解差异可能导致算法设计偏离目标;二是外部供应商对算法系统的泄密导致“对抗性学习”;三是相对于政府部门自己设计的算法系统,问责成本更高。
三、欧美算法行政问责政策的评估
(一)算法行政问责政策的评估框架
荷兰学者马克·博文斯于2007年发表的《分析和评估问责制:概念框架》中提出了一个被广泛接受的问责框架:问责对象和问责主体之间的关系,在这种关系中,问责对象有义务解释和证明自己的行为,问责主体可以提出问题并做出判断,而问责对象可能面临后果。[14]依据这个框架,问责对象需要在特定的问责主体,即听众面前解释他们的行为,这种解释受特定标准的约束。听众可以要求澄清和补充解释,并随后决定问责对象的行为是否适当,由此向问责对象施加不同后果。其中问责对象区分个人负责、组织负责、等级领导负责和集体负责;问责主体包括专业同行、行政审计组织、社会公众、法院、授权机关;[15]问责内容也即说明解释的内容,包括算法系统生命周期中的事前、事中和事后信息;问责后果则包括低、中、高三种程度。
基于实证评估方法量化前述问责结构。在问责对象、问责主体和问责后果之间存在三个阶段的关系:一是问责对象向问责主体说明、解释和证明;二是问责主体和问责对象之间的质询、讨论和评价;三是问责主体向问责对象施加后果。每一个阶段都可以在数量和强度上进行划分,分别表示问责对象提供信息的多少、讨论质询的强度高低、问责主体施加的惩处轻重,共同构成一个问责制立方体结构。[16]当信息提供充足、质询充分且施加后果足以纠正或预防错误行为时,问责制就可以有效发挥作用;相反,当信息提供不足、缺乏适当质询和施加后果无法纠正或预防错误行为时,问责制就难以称之有效。在信息提供方面,问责对象需要根据不同问责主体的问责需求和理解能力进行选择提供。在讨论、质询方面,既包括正式质询,例如算法评估报告、算法登记、听证和上诉等,也包括非正式讨论,例如议会辩论、在线咨询、行政询问等。质询的强度也各不相同,有些政策只涉及单向的沟通,几乎没有给问责对象和问责主体之间充分说明和质询的机会。有些侧重于问责制度的构成原则,缺乏具体的实施方案。此外,如果缺乏独立的外部问责主体以及受影响群体的公众参与,则很难依赖独立性原则和激励原则提高质询强度。在后果的轻重方面,问责主体有权力施加制裁以及后果需具备较不利的影响。制裁可以是正式的或非正式的,也可以是积极的或消极的,较轻的惩罚可能表现为纠正、预防错误的算法决策、承担绩效问责,较重的惩罚则是禁令措施、承担民事或刑事责任,此外还包括政治生命、政府公信力、社会影响力降低等。
(二)算法行政问责政策的评估结果
在上述问责机制分析、政策实施的部分追踪研究的基础上,结合行政问责理论,作出以下评估结果(见表2)。

1.信息提供的不足
算法的技术特征决定了对算法行政问责采取社会技术方法,以解释算法系统在政府部门整个生命周期的运作。[17]算法系统的生命周期(SDLC)分为三个阶段。一是事前的规划和分析阶段,旨在明确政府部门算法系统产生的背景;二是事中的设计、测试、实施等阶段,说明算法的工作机制,旨在满足透明度和可解释性的基本要求;三是事后的维护阶段,说明如何确保运动中的算法符合最初的部署背景,旨在表明政府部门对变化中的算法的控制程度。[18]
现有政策普遍存在信息提供不足的情形,政府部门向问责主体提供的算法行政信息,达不到有效问责的要求。一是信息提供的内容不全。现有政策要求提供的算法信息集中在事中阶段,重点关注算法系统的可解释性,集中在算法系统某个方面的技术透明度,而非算法系统的整体合理性,这就使得一个可解释和透明的算法系统并不一定是负责任的算法系统。多数政策常用的算法源代码公布的作用可能有限,不仅不能为特定公众所理解,还会分散对其他重要信息公开的注意力。《ADM指令》要求公布算法源代码,《新西兰算法宪章》要求公布数据的收集、存储和安全措施,《英国数据伦理框架》则扩展到算法系统背后的采购程序、部署理由等。但是很少有政策全面满足SDLC的事前、事中和事后全部阶段,其中事后维护阶段更是很少顾及。事后维护阶段可以避免算法系统随着时间的运行,逐渐偏离其部署时的背景和期望。二是信息提供的方式不科学。现有政策的标准化信息提供方式忽略了接收方的信息需求和理解能力。不同的问责主体对信息的需求和理解能力不同,例如向公众提供完整的底层代码并不意味着提供了较多的信息,因为公众能够理解代码运行和算法逻辑的仅有少数专业人士;在专业问责领域例如算法影响评估,提供算法系统的事前规划分析而非事中的算法设计也会显得信息提供不对口。
2.质询强度的缺乏
基于行政问责理论,问责对象和问责主体之间应当是问责对象解释说明,问责主体提问质询的互动情景,其中问责主体占主动地位,并且问责过程中应当充分讨论、质询和评价。现有政策在质询强度方面存在不足,缺乏公众主动参与讨论和算法治理,导致问责过程流于形式。虽然有多种问责关系,但是社会问责最能够直接反映公众利益和价值取向,其他例如行政问责、政治问责等,都由于存在跨越式的授权链条而掺杂了其他政策目标,并且这些问责主体的问责积极性也并不高。但这并不意味着只有社会问责才需要公众参与讨论,而是多种问责关系都需要考虑公众、受影响群体和技术专家的参与,以按照受影响群体的明确需求设计问责机制。公众参与不足将导致问责缺乏适当程度的讨论和质询,GDPR数据影响评估就曾被指责缺乏向公众强制披露的机制和要求。[19]《ADM指令》仅有一份风险评估报告被公布,纽约算法管理和政策官员的算法合规监督报告也仅公布了一份,两者都因缺乏强制公开机制而受到批评。大多数AIA机制都没有建立明确的公众参与机制,没能充分考虑来自公众和受影响群体的真实诉求和问责经验。由于AIA机制的有限透明度与公众参与,现有欧美政策中建立的AIA机制与理想的AIA模型有较大差距,成为一种单向度的、不受信任和脱离实践的算法行政问责。[20]不只是AIA机制,其他政策也较少关注公众参与算法治理。①追踪研究发现,纽约自动化决策工作组也因其议程缺乏公众参与,导致在很大程度上无法回应公民的预期需求而遭受批评和质疑。(① 有少数政策有所关注,例如《新西兰算法宪章》《奥克兰监控条例》等。)
3.约束力的匮乏
根据违背义务的类型,行政问责理论将五种问责关系分为违背横向义务、违背纵向义务、违背对角线义务三种类型,产生不同后果。违背横向义务通常在问责对象和问责主体处于平等地位时发生,是在自愿基础上的道德自律,后果可能是公众谴责、声誉损害、公信力减损等;违背纵向义务通常发生在问责主体可以对问责对象行使权力,迫使问责对象承认错误、卸任乃至于承担法律责任。违背对角线义务介于前两者之间,主要在行政问责中常见,一些外部审计监督组织无法对问责对象直接施加后果,而是向议会等权力部门报告,间接施加后果。
现有政策聚集在社会问责、专业问责和行政问责,缺乏法律问责和政治问责,因此多数情况下存在后果较轻或约束不足的情况,缺乏明确的激励措施和有约束力的法律框架来有效实施问责机制。后果较轻表现为重视对算法系统本身的纠正和惩处措施,而忽略对政府部门内部行为人和外部承包商的处罚。“禁令/暂停措施”旨在针对算法系统采取措施,尽管可以依赖预算绩效问责对政府部门造成不利影响,但是这常常表现为对组织的不利影响,而无法真正激励享有算法指定权的官僚集体。在一些情况下,可能会依赖政治问责例如“荷兰系统风险指标(SyRI)算法问责案”,要求部长向议会承担责任,但多数情况下仍然采用了损害赔偿或“禁令/暂停措施”规避造成严重后果的责任承担,例如“英国癌症筛选系统赔偿案”。约束不足表现为多数情况下没有明确的法律框架来执行问责措施。部分政策在形式上规定了不利后果,但设定都较为原则,抑或交由其他已有规范管辖。例如违反《ADM指令》的后果分别由《金融管理法》和“合规管理框架”加以确定,具体为何由合规主管根据原则自由裁量,可能包括“学习和发展、绩效、纪律、犯罪、财政部个别政策等”。①但在欧美政策中仍然存在大量不正式或不具有约束力的政策框架,采用的主要问责机制是“科技伦理问责”。此外仅有少数政策利用了现有的行政问责框架,大多数仍倾向于创造新的算法专属的问责机制,而对如何将行政问责制度的既定原则、机构和机制适用于算法行政问责则保持沉默。(① 参见加拿大《ADM指令》第7条。)
四、我国算法行政问责政策的现状与优化
(一)我国算法行政问责政策的现状
1.传统行政问责面对算法行政的局限性
我国传统行政问责制度散见于各单行法律规章条例,以问责主体不同区分同体问责和异体问责。前者包括政府问责和党的问责;后者包括人大问责和行政程序法问责。算法行政给传统行政问责制度造成挑战。算法的技术壁垒阻碍了党政机关的内部问责,且问责主体同时也是问责对象,以技术中立或操作失误进行避责时有发生;自动化决策导致行政程序被压缩,行政相对人与行政机关之间基于行政正当程序的沟通机制失效;算法黑箱、算法商业秘密保护遮蔽了行政公开原则,算法技术垄断则架空了公众参与原则。实践中政府部门以技术中立名义作为抵挡公众问责的挡箭牌;科技公司也会通过免费运营公共项目等方式避免事后问责。分布式主体联合行为和责任分立导致算法行政成为一种“有组织的不负责任”。[21]
2.重视行政正当程序对算法行政的回应
认识到传统行政问责政策的局限性,政府出台了系列政策进行回应,而学界则重视完善行政正当程序实现算法行政问责。顶层设计上,《国务院关于加强数字政府建设的指导意见》提出“完善相应问责机制”“建立数字政府安全评估”等措施。地方政府也陆续出台数字政府建设实施方案。单行法规上,《个人信息保护法》《生成式人工智能服务管理暂行办法》等多数政策都旨在规制私人部门,仅少部分涉及算法行政。但上述政策仍然有待细化落实。当前算法行政问责仍然以行政法体系为主。学界大多主张坚持和完善行政正当程序以回应算法行政。以技术性正当程序排除偏见,确保算法公开、透明和程序一致性。听取行政相对人意见,包括允许质疑、事后听证、专业审计等。[22]基于行政信息公开提高透明度和可解释性,基于公众参与原则进行算法影响评估,基于说明理由规则创设算法解释权。[23]
3.忽略算法行政问责制度的体系化构建
行政程序法问责假设只要有一个人类在算法决策的闭环中就可以确保算法行政是负责任的。但是被算法行政所影响的个体往往是边缘群体,缺乏问责能力,并且算法行政有时候是影响群体利益的宏观决策。因此,算法行政问责制度的体系化构建就显得非常重要。行政程序法问责仅是专业、行政、社会、法律和政治的五维问责体系的一部分。而当前数字政府所推行的“数字政府全方位安全保障体系”仅是算法行政问责制度的雏形和宣言,需要体系化落地。国务院指导意见也直接指出,“推动形成国家法律和党内法规相辅相成的格局,全面建设数字法治政府,依法依规推进技术应用、流程优化和制度创新,消除技术歧视,保障个人隐私,维护市场主体和人民群众利益。”②这表明一个体系化的算法行政问责制度,不仅需要变革传统法律规则,还依赖广泛的公众监督和自我监督。(② 参见《国务院关于加强数字政府建设的指导意见》第四部分第(三)条。)
(二)我国算法行政问责政策的优化
1.提高算法行政信息的提供水平
欧美政策中“信息提供不足”的教训表明,算法行政信息提供需要与问责关系相适应,考虑问责主体的问责需求和理解能力,并以其能够接受的方式提供信息。算法系统生命周期的事前、事中和事后的信息需要充分提供,同时考虑到海量和技术性的信息可能加重公开难度和理解难度。第一,需要政府部门内部理解算法系统、确定不同问责主体问责需求的能力。公众可能需要更多的事前信息,也即是解释设计和部署算法的环境、理由以及对公众的影响,还包括维护权利的途径和程序;而审计部门可能需要算法系统项目的预算绩效报告、采购流程等;算法登记机制作为标准化的公布流程,可以将受众定位为民间专家和行业协会,通过专业同行审查算法系统生命周期的事中信息,并将其过滤给公众。同时需要认识到源代码公布的局限性,可能会分散对其他重要信息公布的注意力。算法行政信息还包括算法系统的维护、审计、监督而产生的存档,以及影响评估报告等在问责过程中产生的信息。第二,需要以恰当的方式提供算法行政信息,并在问责主体理解算法和算法系统安全之间保持平衡。信息提供的方式需要考虑受众的可接受程度,例如法国正在计划视频、音频、插图的公布方式。信息公开和商业秘密、安全、隐私之间的冲突常常成为政府部门拒绝详细公开算法信息的理由。在所有的透明度机制中,商业秘密、系统安全和隐私等都可以获得公开豁免,但是这些豁免条款的措辞都过于宽泛,使得政府部门难以准确把握公开标准。因此,除了设定安全阈值和商业秘密保护基准外,类似《阿姆斯特丹公平算法采购标准条款》,由外部独立机构对算法系统进行审计,并设置保密条款也不失为特定条件下的问责方法。①(① 参见《荷兰阿姆斯特丹公平算法采购标准条款》第5.2条。)
2.强化算法行政问责的质询强度
欧美政策中“质询强度的缺乏”的教训表明,由于缺乏切身利益相关者、多学科主体的参与式治理,以及强制的问责过程和结果公开,问责质询流于形式,使得算法行政问责成为一种脱离实践、不受信任的单向度问责机制。第一,公众的参与式治理能够强化问责过程中的质询强度。公众、受影响群体相较于其他间接问责主体有更高的参与动机,能够提高问责质询的强度。《新西兰算法宪章》采用了明确的公众参与战略,并督促“识别并积极与对算法感兴趣的个人、群体和团体接触,并与受其使用影响的人进行协商”。②阿姆斯特丹、赫尔辛基市的算法登记机制,也明确通过算法登记中的反馈机制寻求公众参与。第二,受影响群体和多学科主体的参与式治理能够为问责质询提供上游知识。算法行政问责涉及法律、伦理、数据以及算法技术等多学科交叉融合,任何一个领域都不能单独实现算法行政问责。算法系统的多重性决定了算法行政问责也应具有复合性。受影响群体的参与使得质询所讨论的问题更加真实,能够反应被治理者的诉求和经验。特定领域的专业知识涵盖政府部门内部和外部知识,前者涉及执行数据保护政策的机构和行政监督机构;后者则包括信息技术部门以及行业协会等公共组织。第三,行政问责、专业问责等问责过程和结果的透明也有助于提高质询强度。欧美政策中算法影响评估等专业问责结果很少公布,独立问责机构等行政问责也常常秘密进行,其作为信息过滤的中介功能未能发挥作用。因此,需要进一步提高算法行政问责过程和结果的透明度。第四,参与式治理可能产生“多眼”或“多手”问题,前者表现为问责机制交叉重叠,导致资源浪费和过度问责;后者表现为多个主体参与到算法设计、部署、使用和维护中,增加了确定法律责任和协调问责机制的成本。这两个问题属于一般的问责风险,可以依靠行政问责理论予以解决。(② 参见《新西兰算法宪章》承诺部分。)
3.完善多元的约束框架
欧美政策中“有效激励的匮乏”的教训表明,一方面行政机关因不承担实质性的问责后果而缺乏有效负责任的行为,另一方面部分问责主体也因缺乏法律授权而怠于进行有效问责。第一,需要明确问责对象的法律责任,要求其承担算法行政问责的不利后果。欧美政策中多数机制为不具有约束力的“科技伦理问责”,具有一定的价值,但是这可能导致算法行政问责变成一种“道德洗涤”。有研究认为,道德政策是没有问责机制的自我监管,对其过分地关注是逃避监管和避免纳入具有法律约束力的问责机制。[24]第二,积极构建算法行政的法律问责和政治问责。法律问责将算法行政纳入行政侵权行为的范畴,通过赋予公众针对算法行政导致损害的诉权,使得行政机关可能因此承担损害赔偿责任;政治问责则要求行政机关将算法行政作为政府工作报告的一部分,需要向人大负责并承担政治责任。第三,赋予问责主体足够的法律权力,激励其积极进行有效问责。尽管法律框架不是问责实施的必要条件,但是正式的法律框架能够激励问责政策的实施,并为其他问责机制提供立法基础。法律框架不仅能够使问责机制制度化,还可以确保问责政策的实施被列入政府部门议程,例如预算绩效问责。更重要的是法律框架能够为外部监督机构、影响评估机构以及审计人员提供法律授权,以帮助获取评估、监督算法系统所需的信息。纽约自动化决策工作组就曾因没有明确法律授权去检查算法系统,严重限制了执行问责政策的能力。第四,激励措施和约束框架必须同政府部门治理创新之间取得平衡,问责缺乏和过度问责都将阻碍公共管理效能。算法问责的早期阶段,过度严格的问责政策可能抑制政府部门创新,多元的激励措施例如声誉压力与创新管理绩效增长,可以成为政府部门追求管理现代化的内在激励。而随着算法权力潜移默化的扩张,法律框架将成为算法行政问责制度的最终归宿,这在面对算法权力的不可解释性、自主性特征时,尤为重要。
参考文献:略