河南财经政法大学研究生院(河南财经政法大学研究生院官网)



河南财经政法大学研究生院,河南财经政法大学研究生院官网

【作者】刘建业(北京大学法学院博士研究生)

【来源】北大法宝法学期刊库《河南财经政法大学学报》2023年第3期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。

内容提要:算法审计具有技术审计、合规审计、风险审计、责任审计等复合属性。算法规制理念旨在规范“算法权力”,防止因算法滥用产生不良社会影响,实现算法正义。基于算法规制的视角,对算法审计进行法治化建构迫在眉睫且意义重大。算法审计的法治化建构,需要超越算法的技术性定义,关注算法输入数据的质量与评估算法产生的社会影响,遵循包括但不限于以下基本思路:鉴于既有审计类型无法包含算法审计,须规定算法审计独立审计类型;由于算法审计专业性强且市场发育不足,目前阶段应当建立公共机构主导的算法审计模式;为了有效裁决算法纠纷,有必要确立算法审计诉讼类型;面对算法治理存在侵蚀人的自主性倾向,亟待凝聚算法伦理社会共识。

关键词:算法社会;算法治理;算法审计;算法伦理;法治化构建

目次 一、引言 二、算法治理的法治挑战及既有规制思路反思 三、算法审计的内涵表达与实践样态 四、算法审计法治化构建的基本思路 五、余论

引言

2020年9月8日,一篇《外卖骑手,困在系统里》的文章引起了社会广泛讨论。人们讨论的议题由平台用工到平台背后的算法。文章开篇即提出一个至今仍值得反思的问题:数字经济时代,算法究竟应该是一个怎样的存在?近日,由人工智能实验室OpenAI开发的ChatGPT聊天机器人火爆全网。我们在为ChatGPT颠覆人们既有认知而惊叹之时,依然应当思考:人工智能时代,算法是怎样的存在?以及在未来的算法社会治理中,算法应当是怎样的存在?客观而论,困在系统里的何止是外卖骑手,我们每个人随时随地都可能被“系统”困住,这个系统就是算法。当前,算法无处不在。从在线搜索、媒体社交到智慧医疗、智能城市,再到预测性犯罪、自动化行政,算法已经嵌入人们生活的方方面面。可以说,我们已经生活在被算法治理着的社会——算法社会。

在算法社会,算法治理在为人们带来便利的同时,也给人们带来了种种难题与困扰。比如,基于算法的用工平台如何保障员工权益?算法分配医疗资源、教育资源过程中如何实现公平公正和社会福利最大化?如何实现算法精准预测犯罪?自动化行政领域如何保障公民的知情权、参与权,以及实现算法问责与行政问责的有效衔接?等等。总而言之,如何有效控制算法“权力”,防范其异化风险,确保算法为人类服务而不是人类被算法“统治”,恐怕已经成为算法治理中最重要的法治困境。为了及时回应和有效解决算法治理带来的种种危害以及未来可能出现的诸多风险,国内学界与实务部门逐渐将目光转向了算法审计,希冀算法审计能够发挥规制算法的独特效能。

2022年6月22日,中共中央全面深化改革委员会第26次会议明确指出“推动算法审计”,会议通过的《中共中央国务院关于构建数据基础制度更好发挥数据要素作用的意见》强调建立“算法审查制度”。不少专家学者力推算法审计。比如,有专家呼吁借由算法审计解决“大数据杀熟”问题;也有专家直言“推动算法审计大有可为”,并分别从内部视角和外部视角论述算法审计的作用;还有专家主张借鉴国际经验,明确算法审计的路径、具体框架和评估尺度,进而构建我国的算法审计制度。面对“未来已来”的算法社会,法学界已有学者着手算法审计制度研究,探索构建未来我国的算法审计制度。鉴于此,本文尝试探索我国算法审计制度的法治化建构。首先,描述算法治理中的挑战,以及反思既有算法规制思路的结构性不足;其次,聚焦算法审计的独特性,阐释算法审计的制度内涵、功能;再次,提出我国构建算法审计制度的基本思路。

算法治理的法治挑战及既有规制思路反思

算法社会图景中,算法治理(algorithm governance)成为社会治理的主导模式。对此,有学者总结出算法治理范式的基本特征:治理合理性增加(increased rationality of governance)、权力运行移转(shift in the functioning of power)、决策程序封闭(closure of decision-making procedures)。作为一种新型社会治理范式,算法治理在便利人们生活的同时,也带来了诸多挑战。

第一,“大数据杀熟”问题。相同质量的产品或服务本应该一样价格,可是老顾客看到的价格却比新顾客看到的价格要高,这就是平台经济时代经常出现的“大数据杀熟”(big data swindle acquaintances)。在我国,“大数据杀熟”在很多领域出现,比如网络购物、酒店预定、网约车出行等。相关新闻报道和司法案例层出不穷。“大数据杀熟”属于商家单方面增加了交易成本,严重损害了消费者的信任,是最需要关注的算法歧视问题。

第二,信息茧房问题。信息茧房(information cocoons)概念源于美国学者桑斯坦所著《信息乌托邦——众人如何生产知识》一书。在其最新著作《标签——社交媒体时代的众声喧哗》中,桑斯坦指出,人们习惯性接受感兴趣的信息,久而久之被困在只有自身感兴趣的信息“茧房”里。近年来,信息茧房问题在我国也越发突出。信息茧房对个人和社会造成的危害是深远的。于个人而言,由于难以甚至无法收到多元化的信息,某一种立场观点反复出现并不断强化,逐渐认为该种观点即代表了全部,个人独立思考的意识与能力慢慢减弱,久而久之出现智识的退化。对社会来讲,多元信息的自由流通受阻,信息“偏食”不断强化,谣言兴起并不断传播,长此以往可能出现“文化部落主义”(tribalism),进而导致舆论极化和群体分裂,不利于公民社会的形成与发展壮大。

第三,算法行政中存在的问题。2017年国务院印发的《新一代人工智能发展规划》明确提出“智能政务”概念,并提出若干设计方案。2022年的《关于加强数字政府建设的指导意见》(国发〔2022〕14号)更是明确提出“构建数字化、智能化的政府运行新形态”,并对政务智能化运行提出了更为细致的制度设计。当前行政管理实践中,算法广泛应用于交通违法行为罚款、行政审批、社会信用体系建设等领域。算法的应用的确极大地提高了行政效率,有助于行政管理精准化。然而,算法行政也产生了一系列问题。比如,行政自动化决策对行政正当性构成严峻挑战。又如,算法应用挑战传统行政问责制,存在消弭问责机制的倾向。原因在于,算法技术应用于行政管理,行政问责机制存在由“行政问责”走向“技术问责”、责任主体由“行政机关”变为“技术企业”的倾向。另外,也有研究指出算法治理将消解人的自主性,威胁“人的尊严”这一现代政治和法律的核心价值。

面对以上算法治理中存在的问题与风险,人们越发对算法治理技术心生担忧。如何实现从“算法治理”(algorithm governance)到“算法规制”(algorithm regulation)?如何实现“可信任算法”(trusted algorithm)和“算法正义”(algorithm justice)?如何构建“科技向善、以人为本的算法治理秩序”?上述问题的解决迫在眉睫。对此,当前法学领域主要提出以下算法规制路径。第一,权利保护规制路径。通过个体算法赋权实现算法治理对象的“算法充权”(algorithm empower),借由私权保障,遏制算法滥用。比如,欧盟《一般数据保护条例》(General Data Protection Regulation, GDPR)赋予个体算法解释权。在我国,也存在有关算法解释的实定法规范。比如,《关于加强互联网信息服务算法综合治理的指导意见》(以下称《算法综合治理指导意见》)规定算法应用主体应当“做好算法结果解释”,《互联网信息服务算法推荐管理规定》(以下称《算法推荐管理规定》)第十二条明确鼓励算法推荐服务提供者优化规则的可解释性。上述规定一定程度上相当于赋予相对人算法解释权。第二,义务设置规制路径。该路径主张为算法使用者设置相应法定义务以及注意义务,例如算法公开义务、透明度义务等。美国《算法问责法2022》(Algorithmic Accountability Act 2022)第4条、《算法正义和互联网平台透明度法案》(Algorithmic Justice and Online Platform Transparency Act),以及欧盟《算法问责及透明度监管框架》(A Governance Framework for Algorithmic Accountability and Transparency)均规定了算法透明度要求。我国《算法综合治理指导意见》也明确要求“督促企业及时、合理、有效地公开算法基本原理、优化目标、决策标准等信息”,《算法推荐管理规定》强调“算法推荐服务提供者应当制定并公开算法推荐服务相关规则”。有学者指出,上述两种规制路径面临可行性和可欲性困境。其根本原因在于上述规制方式缺乏对算法的场景化考虑,即“算法可能因为运用算法主体的不同、针对对象的不同以及涉及问题的不同而具有不同的性质”。该学者进而主张,规制算法应当采取场景化的规制路径,主张根据不同的场景类型,采取不同的规制方式。

然而,相较于上述两种主流规制思路,场景化的规制路径看上去具有一定优越性,但亦未跳出“算法设计”本身的牢笼。换言之,无论是上述两种主流规制思路,抑或场景化的规制思路,都遵循通过各项制度设计打开“算法黑箱”的规制思路。这样的规制思路至少面临如下困境。第一,不可能。算法本质上是由一系列代码组成的,属于计算机科学领域知识,具有高度的专业性。法学界企图通过各种制度设计实现“算法黑箱”变为“算法白箱”是不可能实现的。另外,一定条件下,算法属于商业秘密范畴,享有知识产权,本身即受到法律保护,除非存在法定情形,否则不得予以公开。第二,没必要。算法规制的目的在于防止算法滥用,而算法是否滥用的判定取决于算法治理的社会结果,一味主张从技术层面规制算法是没有必要的。第三,无意义。即便“算法黑箱”被彻底打开,实现完全开源,这对防止算法滥用,消除算法治理带来的各种不良后果是没有意义的。因为,所谓算法滥用是指算法主体利用算法实施了违法或者违规行为,侵害到社会公共利益或者私主体合法权益。法律法规要求算法实施主体承担相应的法律责任,并非算法本身承担法律责任。算法规制的目的在于规制躲在算法背后的“人”,而非被滥用的作为技术的“算法”。总而言之,算法社会呼唤算法规制的新思路。

算法审计的内涵表达与实践样态

多年来,算法(algorithm)一词都是一个模糊的术语,通常与数学学科中的加减乘除联系在一起。在新兴计算机科学领域,算法被定义为执行某些活动的一组指令。在算法的众多技术性定义中,影响力最大的当属Kowalski对于算法的定义。Kowalski认为算法来源于“逻辑层”(logic)和“控制层”(control)的分离。“逻辑层”部分是指定了制定某个问题的解决方案的知识领域,“控制层”部分决定了应用这些知识解决问题的策略。换句话说,“逻辑层”在理论层面上规定了必须做什么,而“控制层”则定义了如何在操作层面上完成。后来,算法越来越与社会文化交织在一起。越来越多的学者已经开始摒弃先前过于简单的算法技术定义,转而支持更复杂的定义,即承认算法在社会、政治和经济环境中发挥的关键作用。由此,算法被解释为更大、更复杂的行动和决策组合的一部分,被定义为“由几个深深交织在一起的装置和元素组成的社会技术系统”。

(一)内涵表达

总体来看,算法审计主要关注“前端”的输入数据和“末端”的算法影响评估。具体如下。

1.算法输入数据。算法决策中的输入数据(inputted data)对于算法治理的效果来说至关重要。良好的算法治理必然要求算法中的输入数据是高质量的。不幸的是,数据质量不是绝对的,数据质量是由许多方面组成的,通常应该通过权衡各组成部分来评估数据质量。根据国际统计机构(International Statistical Offices)采用的主要定义,至少可以从以下五个主要方面考察数据质量:准确性(accuracy)、及时性(timeliness)、可比性(comparability)、相关性(relevance)和可获得性(accessibility)。

因此,算法审计中对算法输入数据的审计主要从上述五个方面展开,具体如下。其一,准确性。当人们想到数据质量时,通常会想到准确性。准确性是计算或估计与数据的精确或真实值的接近程度。其二,及时性。算法和人工智能技术往往要求对人类的行为进行快速、实时分析,并随之做出决策。其三,可比性。数据的可比性并不是要求绝对意义上的可比性,而是存在于可比性程度(degrees of comparability)层面。可比性要求通常在比较从同一来源按时间顺序产生的数据和从不同来源同步产生的数据时,可能会出现困难。其四,相关性。如果说,准确性、及时性、可比性指向的是数据生成层面,那么,相关性、可获得性指向的是数据使用层面。相关性通常被定义为输入数据与数据用户目标之间的一致性(correspondence)。其五,可获得性。可获得性指用户对数据具有一定的获取手段或者获取途径。2015年,OECD声称,许多国家已经开始利用他们的开放数据平台与公民、研究人员和其他利益相关者合作,并提供他们的数据。

2.算法影响评估。算法审计不仅需要审计算法输入数据、算法输出的公平性,也需要审计算法可能带来的社会影响,即算法决策产生的社会效果,并对其开展算法影响评估。算法技术参与社会治理,带来新的治理范式。新的治理范式在变革旧的治理模式、提升治理效能的同时,也存在较大不确定性,对社会带来的负面影响通常需要人们警惕。算法审计中的算法影响评估工作可以在算法实践之前,便借助专业知识评估算法的既定目标、算法可能带来的积极影响,以及潜在的负面影响。算法影响评估是一种科学决策方式。“算法影响评估应该提供一个全面的计划,让外部研究人员和审计人员有意义地、持续地检查特定的系统,更全面地了解它们的工作方式,并让公众和利益相关者参与到这一过程中来。”

《一般数据保护条例》第27条、美国《算法问责法案2022》第3条分别规定了数据保护、算法影响评估制度。《中华人民共和国个人信息保护法》第五十五条、《中华人民共和国数据安全法》第十八条、《中华人民共和国网络安全法》第三十七条规定了影响评估、风险评估或安全评估制度。另外,《算法综合治理指导意见》明确规定“构建算法安全评估”,要求组织建立专业技术评估队伍,深入分析算法机制机理,评估算法设计、部署和使用等应用环节的缺陷和漏洞,研判算法应用产生的意识形态、社会公平、道德伦理等安全风险,提出针对性应对措施。《算法推荐管理规定》也规定了算法推荐服务者应当定期开展算法评估,形成算法自评估报告。我国上述规定为未来算法影响评估制度的构建与实践提供了土壤。

(二)实践样态

在算法审计实践中,主要存在以下三种实践样态:算法自审计(又称内部审计)、算法监管审计、第三方算法审计。

首先,关于算法自审计。算法自审计,又称内部算法审计(Internal Algorithmic Auditing),是科技企业通过内部算法审计团队完成对自身算法的审计。不同规模的科技企业算法自审计模式不尽相同。对于“大科技”企业来说,一般会选择成立算法审计部门,组建专门的算法审计团队;对于初创科技企业而言,通常会选择设置若干审计顾问。例如,Pymetrics人工智能公司,利用性格测试帮助公司做出招聘决定,很早就进行了内部算法审计,来确保招聘应用算法不存在歧视,同时在GitHub上公布了算法审计的流程。

其次,关于算法监管审计。“算法黑箱”加剧了人们对算法治理带来威胁的担忧。近年来,透明度需求越发强烈。作为政府监管部门,算法审计成为督促企业提高透明度的一种有效监管措施。实践中,监管部门也许基于算法审计发现算法导致社会歧视,进而要求科技企业更新算法。然而,科技企业完全可能使用所谓“造代升级”后的算法技术制造新的社会歧视。因为,算法技术本身即是存在于“算法黑箱”之中。仅仅依靠科技企业开展算法自审计实现优化算法设计是远远不够的。因此,技术工具本身无法修复歧视性算法,因为这种偏见根源于社会问题,而不是纯粹的技术问题。因为许多潜在的偏见不在代码之中,而是来源于社会过程。所以再多的技术设计也无法确保自动化决策系统永远不会以歧视性的方式运行。即使是最精心设计的系统,也可能会无意中对先前存在的偏见进行编码,或者反映出结构性偏见。因此,避免歧视不仅需要注意设计的公平性,还需要审查这些制度在实践中是如何运作的。只有通过观察实际结果,才有可能确定是否存在歧视性影响。换句话说,如果非歧视是一个实质性的目标,那么对自动化决策过程的实际种族或性别影响的审计将是必要的,以诊断偏见何时可能已经潜入并影响了该过程。代码之外的歧视、不公正,必须依靠政府监管部门,开展对商业算法的监管审计,才能实现算法问责,维护社会公共利益。2016年,奥巴马政府直接要求“大科技”公司实行外部算法审计,以增强透明度。

再次,关于第三方算法审计。第三方算法审计具体可分为商业委托第三方算法审计与独立第三方审计。相对来说,商业委托第三方算法审计独立性不如独立第三方算法审计。商业委托第三方算法审计类似于公司内部审计,主要目的是帮助科技公司发现自身算法可能存在的问题,进一步优化算法设计与算法应用。因为,对于初创公司而言,市场规模和占有率不如“大科技”,单独成立内部审计机构组建算法审计团队,或者聘请审计顾问必要性不大,可以商业委托第三方算法审计机构完成算法的“自查自纠”。独立第三方算法审计类似于会计师事务所或者律师事务所,能够客观公正实行算法审计,使科技公司可以提前了解监管机构的要求标准。例如,《算法霸权》一书的作者奥尼尔(O’Neil)于2016年创办了“奥尼尔风险咨询与算法审计公司”(O’Neil Risk Consulting and Algorithmic Auditing,ORCAA),该公司的第一个案件就是对Rentlogic公司实现算法审计。Rentlogic的算法在2013年创建,对纽约市的每栋租房的维护进行打分评级,租房被标为从A到F共六个等级。ORCAA回顾了Rentlogic审计评级算法的方式,以及由此产生的技术是如何接受测试和部署的。ORCAA采访了Fox以及设计算法和维护的程序员。审计过程中,ORCAA创建了一个道德矩阵(ethical matrix)。在这个道德矩阵中,设置六项审计指标,即准确性(accuracy)、一致性(consistency)、偏见(bias)、透明度(transparency)、公平性(fairness)和及时性(timeliness)。同时,Rentlogic必须将利益相关者(stakeholders),即建筑业主(building owners)、租户(renters)、租赁公司(the company)以及纽约市政府官员(NYC officials)考虑进道德矩阵。审计结果最终显示,Rentlogic的道德矩阵存在几个黄色标注,没有红色标注。这促使ORCAA向Rentlogic公司发出第一份算法审计通过证书。ORCAA向Rentlogic提出了一些完善意见。比如,建议Rentlogic在算法审计中嵌入数据自动检查系统,当算法中输入新的数据时,不至于破坏现有数据库。ORCAA建议Rentlogic应当要求公司检查员亲临现场查看租房实际情况,并拍照留存,而不只是查看房东提交的照片。因为房东提供的照片很有可能作假。目前,越来越多的科技企业希望选择独立第三方算法审计。原因在于:一来企业最终需要向监管机构证明,他们的算法设计与应用不歧视受保护的人群,独立第三方审计的结果可能使科技企业避免未来的诉讼;二来对科技企业而言,收获独立第三方算法审计的认可是一种很好的营销,增加潜在客户的信任。

算法审计法治化构建的基本思路

(一)规定算法审计独立类型

《中华人民共和国审计法》(以下简称《审计法》)规定了国家审计监督的规则体系。依照现行《审计法》,我国审计可以分为不同类型,比如按审计涉及的领域,可分为财政审计、金融审计、企业审计、资源环境审计、经济责任审计、涉外审计,也称“六大业务格局”。那么,算法审计是否可以归入上述审计类型呢?显然不能。算法审计之所以无法被上述审计类型所吸收,是因为:首先,从算法审计的对象上看,算法审计的对象主要包括数据和社会影响,均属于非实物;其次,从审计方法上看,无论是代码审计、爬取审计,还是马甲审计、众包式审计,抑或是非侵入式审计,都异于既有审计类型所采用的审计方法,属于算法审计所特有;再次,从算法审计的承载效能来看,算法审计不仅追求商业算法企业的良好规制,而且旨在规制算法行政治理实践中的“科技为恶”,实现法律、技术、伦理的多元共治局面。

由此看来,我国应当在未来的制度设计中确立算法审计为独立审计类型。加紧制定“算法审计法”,对我国算法审计制度进行顶层制度设计势在必行。具体表现如下。第一,建立算法审计行政机关。规定国务院和县级以上地方人民政府设立算法审计机关,配置相应的算法审计行政官员,负责商业算法监管以及公益算法的审计工作。第二,设置企业算法审计义务。满足一定营业额或市场占有率的商业算法使用企业,必须定期开展算法审计活动,进行算法合规审计,同时要求其将算法审计结果报告提交国家算法审计机关备案审查。第三,明确算法审计执业资格。无论是算法审计行政官员,还是商业算法使用企业内部算法审计人员,抑或是算法审计公司人员,再或是非营利性机构组织中从事算法审计业务的人员,均应当通过算法审计职业资格考试,取得执业资格后方可从事算法审计工作。第四,设立算法审计法官。未来算法社会中将越来越多出现由算法导致的各种各样的纠纷,即所谓“算法纠纷”,比如算法公开纠纷:算法是否应当公开?何时公开?如何公开?又如算法透明度纠纷:透明度标准是什么?举证责任如何分配?证明标准又是怎样?再如算法伦理纠纷:如何界定?如何设置责任类型与程度?等等。

(二)建立公共机构主导模式

面对算法治理的全面到来,未来我国算法审计模式应当如何定位?完全市场化的算法审计模式恐怕为时尚早。政府主导的算法审计模式或许是更为合适的选择。简言之,对商业算法应当加强行政审计监管,对公益算法应当加强依托用户的监督。首先,市场发育不足。在我国,尽管算法治理问题屡禁不止,但实践中算法审计作为新型算法规制工具的制度设计仍处于讨论和探索阶段。目前算法审计并未实现市场化运作。然而,大数据杀熟、算法垄断导致“二选一”、诱导沉迷等算法治理问题已严重侵害公民、组织的合法权益,亟待解决。为此,算法审计实践初期,市场力量的不足呼唤行政力量的介入。其次,专业门槛较高。无论是网络购物、出行使用的算法,智慧医疗、智慧城市建设中的算法,还是行政自动化决策算法,均属于计算机科学前沿,具有高度专业性。同理,旨在规制算法的算法审计同样需要高度专业化知识。正因此,从事算法审计业务的人员需要通过职业资格考试。再次,数字素养薄弱。数字素养是算法社会公民必须具备的基本素养。近日,中央网信办公布了《全民数字素养与技能培训基地入选名单》,由此可以看出,国家正加紧培育数字市场。由于当前全民整体数字素养薄弱,由非营利性机构组织主导算法审计的模式难以开展,因此,政府主导算法审计模式不仅可以应对算法治理难题,还可以通过审计公开等形式提升市场主体的数字素养。

需要说明的是,政府主导的算法审计模式适用于算法社会的兴起阶段,一方面回应算法市场发育不足的现状,另一方面及时应对新兴算法市场“乱发展”的特征。随着算法社会治理的法治化,算法市场的发展壮大,各方算法治理主体与算法审计主体的规范化运作,以及算法技术的迭代升级,政府主导的算法设计模式将逐步让位于市场主导的算法审计模式,以更好促进数字经济、平台经济的健康持续。

(三)确立算法审计诉讼类型

近年,算法垄断导致的问题愈发严重。“算法反垄断”成为学界研究的热点问题。作为回应,2022年新修订的《中华人民共和国反垄断法》增加“算法垄断”类型,并对其进行反垄断规制。由前文可知,发现算法垄断是算法审计的内容之一,算法反垄断纠纷属于算法审计纠纷的一种类型。除此之外,算法审计纠纷还包括其他类型,比如算法输入数据纠纷、算法歧视纠纷、算法影响评估纠纷,以及算法公开与算法透明度纠纷,等等。已有学者提出,针对行政自动化决策建立以算法审计为核心的司法救济渠道。

为了保证算法社会法治化,有效解决因算法审计带来的各种类型纠纷,有必要增加算法设计诉讼类型。法院应设立专业算法审计法官,专门制定算法审计诉讼裁判规则。对于商业算法的自愈型算法审计和评价型算法审计,受害方可以提出民事诉讼,要求侵害方承担赔偿责任。对于商业算法的监管型算法审计,商业算法企业为行政相对人,可以依照规定提出行政复议或行政诉讼;其他利益主体为利害关系人,有权提出行政诉讼;不具备行政相对人和利害关系人资格的私主体,在一定条件下可以提出行政公益诉讼。对于公益算法的自愈型算法审计和评价型算法审计,行政相对人可以依据《中华人民共和国政府信息公开条例》等规定,要求公开审计结果报告。

(四)凝聚算法伦理社会共识

在算法治理出现之前,甚至是算法治理“为恶”尚未出现时期,算法伦理(Algorithmic Ethics)的概念鲜有人提及。基于大数据的算法使用是否具有伦理基础成了人们共同的困惑。此外,算法的高度专业性以及“算法黑箱”固有的不透明也成为人们接受算法伦理概念的障碍。与此相应,学界对于算法伦理的研究阙如。不过,近几年,随着算法治理中出现越来越多的法治问题,甚至伦理问题,算法伦理的概念逐渐被人们接受,并引起人们的热议。特别是ChatGPT的问世,算法伦理成为人们热议的话题。

《算法推荐管理规定》明确规定,提供算法推荐服务,应当遵守法律法规,尊重社会公德和伦理,遵守商业道德和职业道德,遵循公正公平、公开透明、科学合理和诚实信用的原则。然而,在算法社会的算法治理实践中,到底何为算法伦理?算法伦理具体包含哪些伦理准则?算法伦理与传统社会伦理有哪些区别?违反算法伦理又当受到哪些制裁与惩罚?等等。这些问题亟待政府机关、行业组织、商业企业、公民团体之间真诚沟通对话,不断凝聚算法伦理社会共识,填充算法审计中的伦理审计内容,同时为算法纠纷解决以及法律解释中的算法伦理考量奠定基础。

余论

作为算法规制的“创新”路径,方兴未艾的算法审计日渐受到学界和实务部门的关注。随着算法越来越深入地嵌入私人生活与国家治理,算法黑箱导致的算法霸权、算法歧视,甚至算法控制愈发令人们担忧,甚至恐惧。是人的统治,还是算法的统治?这样的纠结与困惑一时难以消解。到底是彻底摒弃算法,还是控制下利用算法?显然,我们选择后者。为此,我们在接受算法治理的同时,希望实现算法的有效规制。

相较于既有算法规制思路,算法审计超越算法的技术性定义,立足算法的社会性定义,关注算法输入数据的质量,比如训练算法时使用数据的代表性、纯净度,应用算法时目标数据的公正性等;同时关注算法应用带来的社会结果,通过算法影响评估制度检测算法应用的正当性与有效性。算法审计本身是一项制度工具,无论是算法自审计,还是算法他审计,根本目的即在于通过算法优化,实现算法使用者的目标追求。对商业算法来说,算法使用者自行开展算法审计或者委托第三方算法审计机构审计算法,均旨在协助实现商业利润;对公益算法而言,自行开展的算法审计属于内部监督,委托外部力量介入算法审计旨在弥补内部监督的低效及不足。另外,行政机关对商业算法实行算法审计属于“政府—市场”关系范畴,目的在于通过加强对市场的行政监管,维护市场秩序,促进市场交易与持续良性运转。基于此,未来构建我国算法审计制度需要充分考量不同算法区分类型、算法自审计与他审计差异、算法市场发育不足等客观存在,兼顾保护技术创新与实现良好治理。

以算法为技术底座的新一轮技术革命正在到来。信息技术必将甚至已经部分颠覆我们的生产方式与生活方式,极大提高了生产力。算法的应用范围逐步扩展、深度稳步推进,算法治理助推国家治理能力和治理体系现代化。未来的算法国家图景中,算法规制依然是绕不开的基础性问题。面对算法技术的迭代升级与算法应用的场景拓展,尤其是生成式人工智能技术的开发与利用,如何实现算法审计的法治化,将是“法律与科技”主题领域常谈常新的学术议题。

-向上滑动,查看完整目录-

《河南财经政法大学学报》2023年第3期目录

【法治中国】

1.论复合式行政行为的类型化及其法治改造

谭波、张增辉(1)

2.论我国算法审计的法治化建构

刘建业(14)

3.新时代纪检监察学学科体系的构建与发展前景

姜新平、王依凡(24)

4.“双碳”目标实现的国家环境义务回应

王浩名(34)

【民生法学】

5.从“权力(利)型”回归“义务型”:我国工会“基本职责”法律实现结构的转型

徐志强(46)

6.志愿失灵风险中的地方政府选择性履行职能及其立法矫正

——以养老服务领域为例

张演锋(61)

【部门法学】

7.“交通运输肇事后逃逸”的法教义学解释与司法适用

——“避免风险扩大化义务”的提倡

施雄文、钟坚(72)

8.公共数据的权属界定争议及其制度建构

赵加兵(83)

9.后民法典时代显失公平制度的解释论展开

赵亚宁(94)

10.过失犯中的信赖原则:从行为不法到结果不法

钱日彤(105)

11.论一站式国际商事纠纷解决平台下的商事调解制度

——以《新加坡调解公约》为视角

刘静(118)

【司法制度研究】

12.类案判断的范畴形式及其本质的认识论解释

巩寒冰(131)

13.虚假诉讼中受害普通债权人救济程序之辨

——基于法教义学的分析

戴鹏(146)

14.第三人撤销之诉功能定位与制度完善

柏孟仁(157)

《河南财经政法大学学报》是由河南财经政法大学主办的法学类专业学术期刊。1986年创刊,2012年由原《河南省政法管理干部学院学报》更名为《河南财经政法大学学报》。本刊秉承“格物致知、明礼弘法”的办刊理念,坚持办刊的学术性,追求学术创新,严守学术规范,关注法学理论和实践中的前沿问题、热点、难点问题及其背后的深层次法理研究,注重制度建设;包容不同学术观点和学术思想。

责任编辑 | 郭晴晴

审核人员 | 韩爽 张文硕

本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。

河南财经政法大学研究生院(河南财经政法大学研究生院官网)



赞 (0)