廉政研究中心
教育部名栏“廉政论坛”

教育部名栏“廉政论坛”
当前位置: 首页 >> 教育部名栏“廉政论坛” >> 正文
杜治洲:人工智能嵌入廉政治理的伦理风险及其防范
发布时间:2024-08-19     来源:《广州大学学报》     作者:陈嘉怡

人工智能嵌入廉政治理的伦理风险及其防范

杜治洲a,b,卢佳琦a

(燕山大学a.公共管理学院,b.廉政与治理研究中心,河北秦皇岛066004)

摘 要:人工智能技术的快速发展为廉政治理创新提供了重要机遇和技术支持,不论在实践层面还是价值层面,人工智能嵌入廉政治理领域都具有十分重要的意义。然而现实中,人工智能嵌入廉政治理可能引发一系列伦理问题,呈现出数据伦理风险、公平损害风险、技术依赖风险、懒政庸政风险、监督权滥用风险等伦理风险样态。人工智能嵌入廉政治理形成伦理风险,是廉政治理实践中多因素互动耦合的结果,遵循“内生集聚-衍生增强-传导扩散-后果生成”的伦理风险生成路径。为有效防范人工智能嵌入廉政治理的伦理风险,应以人工智能技术研发促进人工智能与廉政治理深度融合,建立人工智能技术嵌入廉政治理前的伦理审查评估机制,建立人工智能嵌入廉政治理的伦理风险问责机制,完善廉政治理体系和配套制度,加强公众伦理风险教育。

关键词:人工智能;廉政治理;伦理风险

当前,ChatGPT引爆了全球对人工智能技术的热烈讨论,它的诞生成为人工智能发展史上的里程碑,必将对人类社会的治理模式产生深远的影响,廉政治理的实践也不例外。可以说,人工智能技术的发展和应用,正在也必将以更强大的动能推动廉政治理方式的变革。但同时,人工智能技术的不确定性,人工智能技术的运用不当以及廉政治理机制的复杂性,也可能引发隐私安全、公平损害、技术依赖、懒政庸政、滥用监督权等一系列伦理道德风险。2022年3月,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,对加强科技伦理治理作出系列部署。在此背景下,亟需探讨人工智能嵌入廉政治理的伦理风险及其生成机理和防范策略,这对于充分发挥人工智能的价值,建设廉洁政府具有重要的理论价值和实践意义。

一、文献综述

党的十八大以来,在以习近平同志为核心的党中央坚强领导下,全面从严治党取得新的战略成果,反腐败斗争压倒性胜利不断巩固拓展,显示了中国反腐败

的显著优势,[ [1] ]不仅如此,信息化的飞速发展也给我国廉政治理实践带来了巨大的机遇。“互联网+”“大数据”“人工智能”等先进技术手段不断赋能廉政治理体系,如公车定位技术、“身联网”设备、面部识别、指纹识别等技术和设备的应用,在很大程度上提高了反腐败成效。然而,人工智能技术在政府部门的应用尚处于初级阶段,人工智能嵌入廉政治理存在较大的伦理风险,必须引起学术界的关注和实践部门的重视。

伦理风险,是指在人与人、人与社会、人与自然、人与自身的伦理关系方面由于正面或负面影响可能产生不确定事件或条件,尤其是指所产生的不确定的伦理负效应,诸如伦理关系失调、社会失序、机制失控、人的行为失范、心理失衡等。[ [2] ]人工智能伦理研究是人工智能时代的必然产物,包括对技术本身的研究以及在符合人类价值的前提下对人、机和环境之间的交互研究。[ [3] ]纵观人工智能伦理的相关研究,学者们已经关注到了人工智能的两面性,承认人工智能的积极作用是巨大的,但不可忽视随之而来的各种风险,应以综合的眼光看待人工智能。比如博伊德(Boyd)和威尔逊(Wilson)发现人工智能的广泛应用是人类替代的威胁,公共背景下使用人工智能技术会引发道德问题。[ [4] ]人工智能风险显现出排他性、神秘性、误导性、不公平、变化性和不可溯性等特征。[ [5] ]纵观现有文献,学界已指出若干较有代表性的人工智能伦理风险样态,包括价值失衡困境、人机边界模糊问题、责任归属困境、权力异化问题、技术依赖问题、隐私安全问题等。大致可以从国家、社会和个人三个不同层面来认识人工智能的伦理风险样态及其治理策略。

就国家层面而言,人工智能的伦理风险主要体现在政府治理领域,涉及民主、权威、行政价值等方面的风险样态。例如,哈里森(Harri son)、卢娜·雷耶斯Luna-Reyes)认为人工智能的分析和认知工具可能以积极的方式改变政府,但人工智能挑战了政府决策过程,并对构成这些过程的民主价值观形成了威胁。[ [6] ]沃茨(Wirtz)、维耶尔(Weyerer)等认为,公共组织和政府会面临各种(与人工智能相关的风险和相应的治理真空,这可能会威胁到我们社会的基础,并且风险出现时,监管和治理的要求依然得不到重视。[ [7] ]李良成、李雨青研究认为,当缺乏伦理社会正义价值引导的人工智能技术嵌入政府治理并运用到社会环境中时,引发的伦理风险将会使人类社会原本的价值体系陷入危险境地,甚至危及国家政治权威。因此,人工智能嵌入政府治理必须遵循政治正义的价值导向。[ [8] ]赫郑飞认为,人工智能技术潜在的伦理风险与行政价值存在着冲突,背离了公共利益最大化的核心价值。[ [9] ]基于这些风险可能形成的威胁,政府应该考虑人工智能的应用策略,包括做好数据准备、谨慎保护隐私、减轻道德风险、避免人工智能决策等。[ [10] ]在技术应用廉政治理领域,廉政治理智能化面临着治理与技术之间张力如何平衡的问题,特别是公民权利的保障问题。[ [11] ]在复杂的网络环境下,还要警惕廉政信息的开放性对国家安全和个体合法权益的侵害。[ [12] ]

就社会层面而言,人工智能伦理风险样态是指人工智能在交通、医疗、工业生产等重要领域的广泛应用会给社会带来的巨大挑战,包括对人类的主体地位产生威胁、利益权衡和价值选择的困境等。人工智能技术在增进社会福祉的同时,伴随着人机边界模糊、责任追究困境、价值鸿沟扩大和过度的技术依赖等伦理风险。[ [13] ]人工智能技术的发展增强了社会的活力,极大地促进了社会发展,但同时也在一定程度上用技术“捆绑”了社会组织及其成员,压制了群体的主体意识,甚至使人成为了技术的“奴隶”。

就个人层面而言,人工智能的伦理风险主要体现为隐私泄露风险和失业风险。隐私泄露风险,是指由技术造成的个人隐私泄露和公平损害,可能给个人带来道德、财产上的损失;失业风险,是指随着人工智能的逐渐升级,机器代替人工成为可能,可能会减少大量的人力岗位,形成结构性失业,甚至会击垮中层阶级,

导致资源大量流入精英阶层,加剧社会分配不均。[ [14] ]相比较而言,失业风险比隐私泄露风险的后果更加严重。隐私泄露风险尚可以通过技术限制使用的方式来消解,而人工智能带来的大规模失业问题则将对个人的生存造成巨大的冲击,并且这种影响很可能是不可逆的。

人工智能伦理风险通常是由算法的复杂性、不可预测性,价值理性和工具理性的难以协调,风险认知与应对能力有限,利益价值冲突等所引发。[ [15] ]面对人工智能已经产生的伦理风险,现有研究主要从宏观层面上对其成因和治理框架开展了探讨,强调人工智能的道德代码与伦理嵌入的重要性[ [16] ],可构建科学与社会整合框架或从利益相关方角度指导人工智能伦理治理[ 2 ]。人工智能嵌入廉政治理改变了传统的廉政治理模式,其伴随的伦理风险主要源于技术—人—社会—自然之间的复杂交互。人工智能嵌入廉政治理的伦理风险是指人工智能在廉政治理领域发挥效用的过程中所产生的社会伦理负效应,它主要由技术引起,其显现应是一个潜移默化的过程,并且其迸发是不可预期的。因此,人工智能嵌入廉政治理的伦理风险具有长期性、动态性、隐蔽性等特征。

综上所述,学术界已从不同视角关注人工智能的伦理风险样态,并对其成因和治理框架开展了探索研究,但并未全面分析人工智能嵌入政府治理尤其是廉政治理的伦理风险,也未深入探讨这些风险的形成机理及相应的防范对策。在大数据与人工智能技术日益广泛应用于政府治理各领域的大背景下,深入分析研判人工智能技术嵌入廉政治理带来的风险挑战已迫在眉睫。鉴于此,本文聚焦人工智能嵌入廉政治理的伦理风险,通过观察人工智能在廉政治理领域的应用实践,剖析人工智能嵌入廉政治理所产生的伦理风险样态,进而深入分析这些风险的生成机理,并根据生成逻辑提出相应的防控策略。

二、人工智能嵌入廉政治理的内在逻辑

人工智能嵌入廉政治理,是反腐败机关运用大数据、算法、AI等信息技术实现惩治和预防腐败科学化、集约化的过程。人工智能嵌入廉政治理并非空穴来风,而是遵循着一定的内在逻辑(见图1),它既是廉政治理信息化的实践需要,也是把权力关进笼子的必然要求。

(一)廉政治理信息化的实践逻辑

国家治理现代化的重要内容之一就是国家治理信息化,廉政治理是国家治理的一项重要内容,因而廉政治理信息化成为国家治理现代化的必然要求。党的十八大以来,党中央高度重视信息化在纪检监察工作中的运用,各级纪检监察机关不断深化运用大数据技术拓展监督手段,推动信息化技术与纪检监察工作深度融合,为监督执纪赋能增效。腐败手段的新变化与反腐败工作的新要求是廉政治理信息化的实践背景和逻辑。一是腐败手段的信息化和隐蔽化。随着各国治理腐败的力度越来越大,腐败不断出现新的变种,传统的贪腐方式正在向隐蔽化、科技化发展。腐败手段的信息化,直接推动了反腐败方式的信息化。人工智能技术在廉政治理领域广泛应用,将更有利于对贪污腐败行为进行公平公正的判断及智能化追踪,促使政府行为规范化发展,最大程度降低贪污腐败等行为威胁公共利益的风险。[ [17] ]二是以人民为中心的反腐需求管理。反腐败的目的并非反腐败本身,而在于提升民众的获得感和幸福感,因此反腐败机关必须了解多样化的反腐需求,通过大数据分析和云计算等方式收集和分析民众对反腐败工作的意见和建议,以提高反腐败的针对性和有效性。如果说腐败“技术含量”的提高是廉政治理信息化的外部压力,那么以人民为中心的反腐需求管理则是廉政治理信息化的内部动力。

(二)把权力关进笼子的价值逻辑

人工智能嵌入廉政治理意味着可以更好地用技术约束权力,是“技术约束论”的一种体现。马克思·韦伯是“技术约束论”最早的提倡者,他推崇作为理性工具的技术对权力监督的作用,主张利用现代信息技术和社交媒体工具提升权力运行的透明度。[ [18] ]当今随着信息技术和科技的快速发展,“技术约束论”的内容和形式均得到了强化。首先,人工智能嵌入廉政治理改善了公共权力行使者与监督者之间信息不对称的状况。将人工智能技术应用于反腐败工作,可以实现权力运行过程的数据化、透明化,从而打破信息壁垒,降低权力运行的随意性。其次,将信息化手段融入廉政治理,特别是将大数据技术融入规范权力运行的制度设计和管理过程,可以实现权力运行的标准化和规范化。再次,新型设备的应用可以大幅提升权力监督的效果。例如,随着“身联网”技术的不断发展成熟,为公职人员配备附着式或植入式智能设备,关联其位置、信用、房产信息、银行账户,将成为可操作的实践,这样一来,公职人员的一举一动都在“身联网”设备的监控之下。上述举措将大大压缩公职人员的自由裁量权,规范公职人员行使权力的行为,提高权力运行的科学性和监督的效果,最终实现“把权力关进笼子”。[ [19] ]

三、人工智能嵌入廉政治理的伦理风险样态

人工智能是一把双刃剑。人工智能嵌入廉政治理改变了传统的廉政治理模式,提升了廉政治理效能,但技术潜在的不可控性也会带来不可忽视的风险,主要显现为数据伦理风险、公平损害风险、技术依赖风险、懒政庸政风险、监督权滥用风险等样态。

(一)数据伦理风险

人工智能嵌入廉政治理,极大地增强了治理空间的开放性和虚拟性,公职人员个人信息和国家公共信息都将以数据库形式被收集和管理,在此过程中可能出现数据安全的伦理风险。一是党员干部的个人隐私可能遭受侵犯和泄露。算法将各种零碎的数据进行整合和分析,最终形成行为判断和结果预测的重要线索。但随着人工智能嵌入廉政治理领域,个人隐私的暴露范围逐渐扩大,个体在人工智能面前就像是“赤身裸体”。监管制度、数据采集技术、数据采集程序、数据存储等方面的问题,可能导致数据被篡改、滥用、泄露,从而侵犯党员干部的个人隐私。二是国家安全可能受到威胁。一方面,算法本身不是无懈可击的,大量核心数据和党员干部信息存储在网络上,这为不法分子盗取国家秘密造就了的机会。不法分子可能通过攻击人工智能系统盗取纪检监察系统重要领导干部的详细信息、国家保密信息等,还可能通过伪造证据、散布谣言干扰国家执法活动。另一方面,目前数据安全标准和法制建设不完善,关于人工智能数据所有权归属问题不明确、数据共享标准不规范等,导致数据信息开放和安全防范不到位,从而严重威胁国家数据安全。

(二)公平损害风险

在伦理层面,公平意味着平等,强调非排他性,将人工智能嵌入廉政治理,在强调效率时却可能损害了公平正义价值。[ [20] ]一方面,人工智能嵌入廉政治理可能导致“算法歧视”。人工智能的设计者在心理潜在偏见或外界利益诱惑的影响下,将不公平公正的规则植入到算法中,形成算法歧视。这将有可能帮助腐败官员逃离数据监视,或欲加罪之于无辜官员。除此之外,“算法歧视”的危害还体现在“技术鸿沟”隔断社会弱势群体权利的实现路径。在人工智能嵌入廉政治理环境下,社会弱势群体的知情权、参与权、表达权等诸多公民权利的实现路径,不仅未能扩大,反被人工智能所阻滞,使公民参与弱化、分化,民主监督难以充分实现。[ [21] ]另一方面,人工智能嵌入廉政治理可能导致“算法黑箱”。“算法黑箱”的主要表现形式有三种:作为国家秘密本身所代表的不透明、技术专业性导致的相对不透明、机器自主性学习所导致的黑箱特性。[ [22] ]不论哪种表现形式都会在不同程度上削减社会公众的知情权进而影响公众的合法参与权、合法监督权。

(三)技术依赖风险

该类风险主要表现为三个方面。一是技术依赖损害自主性。人工智能强大的信息收集能力、数据处理能力和监控能力,可能使纪检监察人员形成技术依赖,且其依赖程度随着人工智能技术的升级而强化。编程人员设计的自主决策算法还将代替纪检监察人员的决策,不利于纪检监察人员自主决策能力的培养和提升。二是技术依赖固化廉政治理体制。反腐败机构为适应人工智能技术的嵌入,通过不断增设专门的机构匹配人工智能技术,而层层增设的专门机构使反腐败机构变

成一个巨大的机器,难改变、难压缩、难优化。三是人工智能自主决策存在着损害科学决策的隐患。人工智能嵌入后意味着算法自主决策取代人类决策,虽然算法自主决策有大数据的科学依据支撑,但如果模型算法不科学、数据质量存在问题的话,大数据的预判、分析等功能就有可能出现失误,从而出现由于决策错误导致的公共利益和个人利益损害。[ [23] ]

(四)懒政庸政风险

人工智能嵌入廉政治理,还有可能助长反腐败机构内公职人员懒政庸政的作风。人工智能的应用,可能逐步形成和固化纪检监察工作人员对信息技术的心理依赖,导致“懒政”盛行,而懒政又会进一步导致庸政。反腐败机构的工作人员习惯于依靠人工智能的信息收集和数据处理,便将所有工作、所有步骤全部推给人工智能自动完成,促使人工智能从客体转换成主体。甚至还有工作人员不顾现实状况,滥用人工智能技术,陷入“数据迷思”,仅依靠人工智能收集和处理信息,让反腐这项走向群众的工作变成脱离群众的状态。[ [24] ]“懒政庸政”在此情境下表现为过分依赖人工智能,尤其是建立在智能化基础上的大数据,导致治理主体的自主性缺失,做出“只顾眼前,不顾长远”的决策,从而可能导致对廉政治理形势的误判和决策错误。

(五)监督权滥用风险

一是设计算法时植入的监督权滥用风险。由于政府内部精于算法技术的人才和资源有限,政府必须与企业合作,而企业作为反腐败机构的监督对象之一,在设计算法时会考虑与反腐败机构之间的关系,利用技术优势获得更多的话语权,因此可能对公权力进行干预,形成资本与权力的勾连纽带。企业在利益关联因素的驱动下,在算法运行中的操控能力还可以影响监督人的正当权利。[ [25] ]二是人工智能助长监督权的滥用。反腐败机构掌握了监督对象大量的信息,可能导致监督权的高度集中,进而造成反腐败机构监督权滥用的风险。不仅如此,由于人工智能的便捷性,群众有了更为直接的监督方式和便捷的监督渠道,行使监督权变

得更加简单。这种便捷性也引发了风险,有心之人可能会恶意举报、虚报、谎报,从而导致社会公众监督权的滥用。

四、人工智能嵌入廉政治理伦理风险的生成机理

解释风险生成演化的逻辑,是实施风险防范的重要前提。人工智能嵌入廉政治理的伦理风险生成,受到人工智能技术、反腐败制度和公众伦理风险感知(公众包括公职人员和普通公众)等三个方面的影响。主客观两个维度的风险因素从集聚、增强和扩散到伦理风险后果的形成,形成了一条独特的伦理风险生成路径(见图2)。

(一)风险内生

从系统内部来看,伦理风险因素可分为源发因素和触发因素。源发因素主要包括人工智能技术的不确定性、廉政治理结构与人工智能技术的匹配性弱、关于人工智能方面的监管制度不健全等三个方面,可以总结为人工智能技术和反腐败制度两个层次;触发因素主要包括公职人员的风险感知和普通公众的风险感知。这些主客观因素在系统内部聚集,随时可能被触发,导致风险增强。

第一,从技术层面来看,智慧纪检监察平台建设严重依赖算法和数据质量,但其稳定性难以保证。例如,算法漏洞、算法黑箱、算法歧视、数据安全风险,这些都是人工智能嵌入廉政治理中主要的伦理风险突发点。“算法黑箱”是大多数人工智能伦理风险产生的本质,人工智能技术令人费解的运算逻辑、决策逻辑和技术的不可预测性促使智慧纪检监察平台潜在风险数量呈现不成比例的增长。从数据质量方面来说,数据是算法自主决策的主要依据,数据的有效性和准确性直接关系到算法自主决策时的判断与预测精度。若数据收集、储存、管理等环节出现不当,将会引发决策错误、公平损害、隐私泄露等伦理风险。

第二,从制度层面来看,目前我国的廉政治理结构存在缺陷。各级各类承担反腐败职能的机构之间缺乏必要的信息共享,存在“信息孤岛”,未能使已收集的大量数据资源发挥效能。廉政治理结构的“分割状态”与人工智能技术的“共享本质”不匹配,因此,人工智能技术运用到反腐领域并未达到预想的效果。同时,对于人工智能技术应用的监管不到位。有关人工智能技术的法律法规和行业规范不完善,也未设立专门的监管部门和监管制度,因此人工智能设备的投入使用可能导致公职人员个人信息在非授权情况下的被动收集或共享,从而产生数据滥用和个人隐私泄露等伦理风险。

第三,公职人员的风险感知和普通公众的风险感知是风险产生的基础性因素。在教育背景、财产状况等现实条件的约束下,人类的风险认知和应对能力是有限的,人工智能背后庞大的运算体系超出大部分普通群众和公职人员的认知范畴,从而无法直接形成对伦理风险的认知判断。[ [26] ]若公职人员和普通公众都能对可能产生的伦理风险有一个大体的判断,那将会大大降低风险发生的概率,但实际上他们并不十分了解人工智能技术的嵌入作用。因此,个人根据主观感受所获得的经验并不能帮助他们筛选信息、作出判定,从而难以接受或规避风险的发生。

(二)风险衍生

在风险聚集阶段,风险因素不可避免,但技术研发企业、反腐败机构和第三方评估机构的某些不作为将导致风险衍生和风险增强。恐惧大多是由于无知和不确定产生的,在人工智能嵌入廉政治理情景中,不论是公职人员还是普通公众,皆对未知的新技术存在恐慌心理。一是“裸奔”公职人员在心理恐惧下出现的风险感知力低。人工智能对公职人员“画像”之后,公职人员在没有技术说明和风险评估的前提下,会不自觉地产生对技术的恐慌心理。[ [27] ]在上述情况下,公职人员对人工智能技术的感知薄弱,对人工智能伦理风险的感知能力更低,便间接地推动了廉政治理实践中人工智能伦理风险的衍生过程及强化。二是普通公众在知识匮乏下出现的风险感知力弱。普通公众本就缺乏关于人工智能技术的了解及认知,并且在人工智能技术研发企业缺少算法安全解释的情况下,算法和公众之间的技术鸿沟无法消弭,这将可能影响普通公众的风险预知,直至风险产生。官方

解释有助于消除恐慌或争论,但廉政治理机构若不能及时公开智慧纪检监察工作的相关信息,则会愈发加重群众的质疑,并且由此埋下巨大的伦理风险隐患。因此,技术研发企业忽视安全解释、廉政治理机构信息公开缺位和第三方评估机构的能力限制都增加了公职人员和普通公众对人工智能嵌入廉政治理合理性的怀疑。如此情景下,人工智能嵌入廉政治理的伦理风险也在潜移默化中生成各种形态并逐步增强风险程度。

(三)风险传导

前两个阶段风险因素的聚集和增强,或许已经形成了或大或小风险事件,并形成风险决策。置身于风险中的各利益相关主体,无论是公职人员、普通公众还是媒体,都已经感知了风险因素的存在,并在不同的社会关系网络中进行传播。在风险传导过程中,媒体起到了直接推动作用。作为相关组织与公众之间的沟通介质,媒体资讯将对社会舆论的形成与发展产生巨大的影响。因此,媒体对智慧纪检监察及其衍生的伦理风险的态度,将会直接影响公职人员及普通公众对智慧纪检监察的接受认可程度。在人工智能嵌入廉政治理生成伦理风险后,若媒体选择保持沉默,那他们的沉默状态将会进一步助长风险因素的集聚状态,从而蓄积风险爆发时的负面能量。若媒体选择进行不当宣传,将会加剧公职人员和普通公众对人工智能的恐慌心理。人工智能在人的认知中本来就自带神秘面纱,衍生出来的各种人工智能产品的应用也较难得到群众和公职人员的充分理解和支持,此时若他们所接受的有关人工智能技术的知识信息全是负面的,那聚集的风险因素就可能超出控制范围,更容易对社会价值造成损害,从而瓦解人工智能嵌入廉政治理的信任体系。由此,在媒体的直接或间接传导下,人工智能嵌入廉政治理的伦理风险在社会范围内大幅扩散,由此进入风险爆发阶段。

(四)风险爆发

聚集的风险因素和急速的风险扩散刺激到社会公众和公职人员的风险感知,耦合源发因素和触发因素,伴随着外部环境的刺激和风险因素间的互动,促使积压已久的风险事件和风险决策爆发并在社会迅速传递,最终形成形态各样的伦理风险样态,遂造成不同程度的社会价值损害。在人工智能嵌入廉政治理的伦理风险样态开始显现之后,廉政治理机构和公众根据利弊权衡的判断,选择对待伦理风险的态度。若得大于失,廉政治理结构及公众倾向于选择容忍态度,此时所显现的伦理负效应将被隐藏,甚至长期处于隐匿状态;若得小于失,则倾向于选择不容忍态度,此时的伦理负效应处于显现状态,从而造成伦理风险后果,促使人工智能应用廉政治理实践成为社会的批判对象和攻击点。紧接着就是舆论风波,伦理负效应的影响范围进一步扩大,使人工智能嵌入廉政治理的政策受到抨击,迫于舆论压力政府可能会暂缓人工智能技术在廉政领域的推进。显然,这种局面不利于数字政府建设,也不利于推进廉政治理现代化。

总而言之,人工智能嵌入廉政治理生成伦理风险,是多种因素共同作用的结果,并且沿着“内生集聚—衍生增强—传导扩散—后果生成”路径逐步演进。

五、典型案例——ZeroTrust零信任反腐败智能系统的伦理风险分析

当前,人工智能嵌入廉政治理的实践探索越来越多,ZeroTrust零信任反腐败智能系统就是其中的典型。ZeroTrust零信任反腐败智能系统由中国科学院与纪检部门联合开发,用于政府人员的行为监测。该系统通过调用中央及地方150多个受保护的数据库,绘制出政府人员复杂的个人生活、工作及关系网络等画像,并通过纪检官员导入的以往案例进行“训练”,从而进行临界分析。2012年,该系统被投放试点,覆盖30个偏远县市,在使用过程中,该系统共发现8721名官员的不当行政行为。由此可见,ZeroTrust零信任反腐败智能系统克服了“数据孤岛”困境,并具备精准监控的能力。然而,该系统却引发试点地方公职人员的不满,并叫停对ZeroTrust零信任反腐败智能系统的使用。未叫停使用的试点官员也表示继续使用存在压力,并表明其继续使用的原因是能在早期发现问题,而不是“揪贪官”。研究人员也认为,对本次系统并不是很满意,主要是机器仅能进行数据计算,虽然准确性无可置疑,但仍无法代替人脑进行决策。[ [28] ]

在ZeroTrust零信任反腐败智能系统试点投放的过程中,也显现出了本文上述的部分伦理风险样态。该系统虽能快速发现腐败线索,但并不具备解释能力,这也就说明了为什么ZeroTrust零信任反腐败智能系统发现8721名官员的不当行政行为,但仅有少部分人受到严厉惩罚。当ZeroTrust零信任反腐败智能系统推算出的腐败行为可能性超过预设范围时,系统会提醒当局,而这时上司可提前通知受审查人并帮助其逃脱罪名。不仅如此,由于ZeroTrust零信任反腐败智能系统过于灵敏,所以出现了无辜官员被“扣帽”的情况。除此之外,使用ZeroTrust零信任反腐败智能系统的公职人员反馈说这个系统让他们“感到不舒服”,被系统随时“监视”,个人隐私受到侵犯。可见,ZeroTrust零信任反腐败智能系统的使用的确存在数据伦理、公平损害等伦理风险。

此外,该系统在投入使用之前并未解决相关的衍生问题,导致风险因素内部集聚。由于系统缺乏明确的运行机构及运行流程,也没有产前评估以及信息说明,试点处的公职人员感受到了不小的使用压力,进一步加剧了ZeroTrust零信任反腐败智能系统的伦理风险衍生。目前在网页搜索ZeroTrust零信任反腐败智能系统,搜索结果几乎都是引人注目的负面标题,例如“反腐AI系统ZeroTrust效率太高不被待见”等词条,这导致了ZeroTrust零信任反腐败智能系统的伦理风险快速传导及扩散,从而愈发阻滞了ZeroTrust零信任反腐败智能系统的推广应用。在上述基础上,试点地区经过权衡利弊,有的地区认为得大于失,选择容忍,继续使用ZeroTrust零信任反腐败智能系统预防腐败;而有的地区认为得小于失,选择叫停使用ZeroTrust零信任反腐败智能系统。总的来说,ZeroTrust零信任反腐败智能系统能否继续运用于廉政治理实践并受到越来越多的欢迎,在很大程度上取决于它带来的伦理风险能否得到有效防范。

六、人工智能嵌入廉政治理的伦理风险防范策略

根据上文论述可知,人工智能给廉政治理效能的提升带来了巨大的机遇,但也伴随着较大的伦理风险,包括侵犯隐私、歧视、逃避责任、操纵和误导公众舆论等。廉政治理实践中,人工智能被赋予了巨大的权力,若人工智能系统在没有适当监督、问责和治理的情况下扩张,后果将非常严重,并且是不可逆的。因此,防范人工智能嵌入廉政治理的伦理风险势在必行。

(一)以人工智能技术研发促进人工智能与廉政治理深度融合

算法是人工智能技术的核心,若“算法黑箱”“算法歧视”等问题得不到解决,由此带来的风险就难以有效防范。在政府创新和信息技术革命叠加的时代,应当针对廉政治理结构的复杂性和现有技术的瓶颈,加强人工智能技术的研发和突破创新,提升人工智能与廉政治理的耦合程度。由此,在政府方面,必须加大资金投入、重视复合型人才培养来保障技术研发的持续推进。在社会方面,高新技术企业、高校和民间组织之间加强合作交流,共同致力于人工智能技术开发和升级,提高自主创新能力,争取早日攻破技术难关,解决“卡脖子”问题。

此外,还必须建立技术伦理规范。研发者要遵循基本的伦理规范,坚持安全性、有益性、包容多元性等原则。在设计算法时,要争取做到明确人工智能设计、研发、运营、服务等各个环节中主体的权利和义务,明确伦理风险发生时主体应该承担的责任。要增强算法的透明度,在不影响保密和侵犯隐私权的前提下,适当地披露算法准则。要提高算法的解释性,以避免因算法的决策失误及算法歧视而产生的伦理价值损失。

(二)建立人工智能技术的伦理审查评估机制

德威迪(Dwivedi)等人指出:“需要健全的治理,明确责任并评估风险,人工智能治理才能应对风险挑战。”[ [29] ]在人工智能技术正式嵌入廉政治理之前,政府应做好对人工智能技术的审查评估工作,主要是针对算法方面,以防患于未然。应尽快成立由反腐败机构负责人、专业学者、互联网企业主管和群众代表组成的人工智能伦理审查评估委员会。人工智能伦理审查评估委员会根据人工智能的产研进展及社会反馈,借鉴国际上的相关规则,制定出一套合理的评估标准,依照标准对企业提供的人工智能技术进行伦理风险点的全方位审查和评估,以减少人工智能运行时可能产生的伦理风险。一是做好预防工作,加强对人工智能的监管,以确保将要投入使用的人工智能技术安全、可控和公正;二是推动制定国家层面的人工智能伦理准则,定期对新应用的人工智能技术进行风险评估。

(三)建立人工智能嵌入廉政治理的伦理风险问责机制

必须建立一套严格的问责机制以有效防范由人工智能带来的伦理风险。设计研发者、生产者、使用者均应对人工智能嵌入廉政治理产生的伦理风险承担相应的责任。第一,问责研发者。在风险溯源时,若根源为研发阶段的错误,应对设计研发者实施问责,根据风险危害程度问责方式分别采取罚款、降职、免职等方式,严重者可追究研发者的法律责任。第二,问责生产者。生产阶段决定着人工智能产品的安全标准和质量标准,是潜在风险的控制者。生产者使用安全、质量好的原材料,生产过程符合国家各项标准,这就将从源头上遏制了某些伦理风险因素的“萌发”。因此,应采用严格的法律责任归责原则,用法律来约束生产者的行为、规范生产原则,否则他们面对的将是“牢狱之灾”。第三,问责使用者。当使用人工智能的方法不当引发伦理风险时,作为使用者的反腐败机构及其工作人员应承担责任。

(四)完善廉政治理体系和配套制度

第一,推进反腐败机构之间的协同合作机制。一是建立各级各类反腐败机构之间的、跨部门的沟通机制。反腐败机构的组织体系应趋向“扁平化”方向发展,减少层级,避免信息失真。各级各类反腐败机构间应建立一条“绿色通道”,专门用于沟通协作和信息传递以提高协作效率,增强反腐工作成效。二是在中央层面打造一个全面的信息数据共享平台,供各级各类反腐败机构将依靠人工智能收集到的官员信息、图片等数据全部同步上传并共享,建立实时更新数据库。三是从条块分割向整体性治理推进。建议成立联合治理办公室,人员组成包括公安、纪委监委、反贪局、检察院、法院等相关部门的工作人员,加速职能联动,推进廉政领域的整体性治理走向。同时建立全面考核机制,倒逼相关部门积极配合跨部门合作,减弱条块分割结构给人工智能技术带来的负效应。完善反腐败机构间的合作机制将大幅度解决人工智能技术与廉政治理结构之间不匹配的问题。

第二,建立大数据分类管理制度和分级保密制度。横向上,对数量庞大的大数据进行分类管理,建立大数据分类管理制度;纵向上,根据数据属性确定保密级别,建立分级保密制度,对于保密性高的数据,设立职级准入门槛并重点配套数据安全防护措施。根据分类标准,将无效信息及时销毁清除;根据保密级别标准,将可公开的信息切实依法公开。[ [30] ]这种纵横交错的数据管理机制,不仅能提高数据管理的效率,也便于数据提取,最重要的是可以防范不良分子盗取保密信息。

第三,构建媒体对人工智能伦理风险的引导机制。媒体应承担起教育大众的使命,在推广宣传人工智能的积极作用的同时,也要将可能发生的各种伦理风险样态告知公众,使公众全面了解人工智能的利弊。因此,宣传部门应严格管控相关APP、微信公众号、微博等自媒体发布的关于人工智能风险的文章和视频,监控发布相关文章的敏感词汇和舆论诱导方向。传媒相关的行业协会应建立关于人工智能宣传报道的行业规范,媒体自身要提升社会责任感,自发地引导关于人工智能伦理风险的正向舆论,并普及人工智能知识。

(五)加强公众伦理风险教育

加强公众伦理风险教育是防范伦理风险的重要途径,包括针对研发人工智能的技术创新者和普通公众的伦理教育。研发者不仅承担着技术开发创新的重任,也肩负着研究成果带来的社会责任。技术创新者在研发设计时的偏见、歧视等错误价值观可能导致巨大的伦理风险。相比于法律规制的滞后性,责任意识监管更具有前瞻性。因此,人工智能创新主体的责任意识必须得到强化,他们应接受专门的人工智能伦理教育和培训,树立正确的认知标准,接受伦理责任,保障在算法设计时将伦理责任转化为代码植入到人工智能设计中,最终实现伦理规制与技术的创新。此外,针对普通公众的伦理教育也十分重要。伦理风险意识会影响人们对伦理风险的认知程度。如果人们对伦理风险的认知不够充分,甚至有盲区,就有可能导致对人工智能技术的恐慌,放大伦理风险。大部分公众并不熟悉人工智能,这也加剧了人们对它的担忧和恐惧。因此,公共教育机构和社区应向公众宣传人工智能的伦理规范和技术规范,全面认识人工智能技术嵌入廉政治理的潜在危害和伦理负效应,进而提高普通公众对人工智能的伦理风险意识,降低人们面对风险时的茫然和恐慌。

总之,必须提高公众的伦理观念,加强对公众的伦理教育,培育伦理道德素养,同时提升自律意识。毕竟只有当外在的约束力上升到主体的自律意识时,公众才能形成对人工智能技术的正确认识,才能更好地发挥监督者的作用,才能真正防范人工智能嵌入廉政治理的伦理风险。



为方便编辑,文中参考文献及注释省略。

来源:杜治洲,卢佳琦.人工智能嵌入廉政治理的伦理风险及其防范[J].广州大学学报(社会科学版),2024,23(04):113-124.


版权所有 © 广州大学廉政研究中心

地址:广州市番禺区大学城外环西路230号

邮编:510006     电话:020-39366152