算法偏见对“智慧司法”的影响及其防范
中国人民大学国家发展与战略研究院博士后研究人员 雷震文
人工智能常被认为所趋向公平的。以数据和算法为基础,机器决策可以较大程度地克服人类因认知局限或主观任意而导致的偏见,促进结果的客观、准确和公平。然而,科技发展的历史表明,技术的好坏并非绝对,其价值上的中立性也并不彻底。在实践中,因人工智能运用而引发的歧视和偏见并不鲜见。譬如,据国外相关机构的研究显示,在“谷歌”的广告推送服务中,男性用户获得高薪职位招聘信息提示的数量明显高于女性用户;而利用“谷歌”搜索黑人的名字也比搜索白人的名字更容易出现暗示具有犯罪历史的信息内容。其中包含的性别和种族偏见不言而喻。而在司法层面,美国部分法院所采用的犯罪风险智能评估系统COMPAS则被证明存在着种族歧视的问题。在该系统中,黑人被错误评估为具有高犯罪风险的几率是白人的两倍,在犯罪情节相似的情况下,黑人罪犯将更有可能因系统的错误标记而被法官判处更重的刑罚。
导致人工智能偏见的主要原因在于算法。作为计算机在处理相关问题时的方法和步骤安排,算法是人工智能的核心要素,代表着人工智能决策的逻辑结构,对自主决策的过程和结果皆具有不可忽视的主导作用。而算法虽以符号和程式为表现形式,但本身却并非是完全客观和中立的。一方面,算法在本质上是“以数学方式或者计算机代码表达的意见”,包括其设计、目的、成功标准、数据使用等等都是设计者、开发者的主观选择,设计者和开发者可能将自己所怀抱的偏见嵌入算法系统。另一方面,算法决策的基本原理在于“以过去的数据预测未来的趋势”。算法的形成和完善需要以大量的数据训练为基础,而数据的有效性、准确性,也会影响整个算法决策和预测的准确性。如果用以训练算法的数据本身即包含偏见,则其偏见不免要传导到算法中,造成“偏见进,偏见出”的结果。
算法偏见对司法的影响
虽然,在当前的司法实践中,人工智能的功能仅在于“辅助”而非“替代”司法人员的独立判断,算法对司法结果并不起直接的决定作用。但是,随着各类司法辅助办案系统的出现,由法律文书的自动生成到证据材料的智能审核、类似案件的精确推送、刑罚裁量的数据参考、结果偏离的实时警示,人工智能对司法过程渗透的不断深化却是不争的事实,司法决策对其的依赖也日趋增强。算法偏见对司法公正可能造成的影响也将更加明显和广泛。
首先,算法偏见可能会对案件事实的认定构成误导。由智能办案辅助系统提出证据指引,并对单一证据、证据链和全案证据进行校验、审查,是当前人工智能参与司法事实认定主要形式。不可否认,在辅助系统自身公正和客观性得到保障的前提下,此种形式对于克服办案人员主观不利因素的影响,促进对案件事实证据的认定符合客观事实,大有裨益。然而,如果主导智能辅助系统的算法存在对特定社会群体的偏见,则其有可能将某些与该群体联系较为密切而与案件事实关联度不大的因素纳入证据指引中,或者弱化对相关证据的审核要求,给司法人员对案件事实的调查和认定造成误导。而随着智能系统对司法领域渗透范围的拓宽和渗透程度的加深。算法偏见的此种影响,恐怕将难以完全避免。
其次,算法偏见可能会对法律的正确适用造成阻碍。对案件事实的准确认定是正确适用法律的基础。当事实认定因算法的误导而出现偏差时,法律适用上的谬误自然也就难以避免。特别是在某些自动化程度较高的智能辅助系统中,由犯罪事实和量刑情节的提取到关联法条的推送、量刑幅度的计算皆由辅助系统自主完成。虽然,就其量刑和法律匹配的过程,司法人员可自其生成的报表中获得了解,但是,由于缺乏对程的充分参与,对于系统对事实情节的提取是否全面或有所侧重以及对法律条文的理解和选择是否准确(尤其是存在相似条文时)往往未能形成足够深刻的理解。其法律适用受算法偏见的影响将更加严重和明显。
此外,算法歧视可能会巩固和强化司法不公的影响。依据算法决策的基本原理,如果用过去不准确或者有偏见的数据去训练算法,其结果自然也是有偏见的;然后再以其输出产生的数据对系统进行反馈,则会使偏见得到巩固,形成“自我实现的歧视性反馈循环”。因此,在偏见算法的主导下,智能办案辅助系统不仅可能会对具体案件的事实认定和法律适用形成误导和阻碍,导致个案司法决策的不公,而且,还会把此种不公的结果作为继续训练算法的数据,将原有的算法偏见加以巩固和强化,并以参考、指引的方式对此后类似案件的司法决策造成影响,引发对相关类型案件司法公正的系统性威胁。
防范算法偏见的思路和方法
作为维护社会公平正义的最后一道防线,司法对于偏见与歧视具有天然的排斥性。习近平总书记指出,“努力让人民群众在每一个司法案件中都感受到公平正义。”因此,在不断推进人工智能与司法工作的深度融合的同时,如何有效地防范算法歧视及其对司法公正可能造成的消极影响,成为当前“智慧司法”建设中亟需思考和解决的问题。
第一,建立和完善算法审查制度。司法智能辅助系统作为可对司法决策产生重要影响的工具,参照目前域外相关企业和组织的做法,建立由法官、检察官、律师和其他包括人工智能、伦理学、法学等领域专家组成的伦理审查委员会,对其进行包括反歧视在内的伦理和法律审查,以最大限度地保证其算法的公正和合法性,颇为必要。审查不仅是智能辅助系统落地使用前的必要程序,在系统实际使用的过程中也应当定期进行。毕竟,以深度学习为基础,人工智能在相关领域应用的经验已经表明,算法偏见即便在其设计和投入使用时并不存在,也有可能在后来的使用中,随着带有偏见内容的数据的不断输入而“习得”。
第二,促进智能系统算法的公开。算法不公开也称算法“黑箱”,是困扰当前人工智能治理的主要问题。基于其影响的广泛和重要性,国外研究机构已经提出,刑事司法、医疗、福利和教育等高风险领域内的核心公共机构不应再使用具有“黑箱”特性的人工智能技术及算法系统。而在我国,基于人工智能系统对司法决策影响日益深化的事实,一方面受托从事司法智能辅助系统开发的单位应当依据合同的约定向司法机关就算法的工作原理履行详细说明义务;另一方面,使用智能辅助系统的机关依据应当依据《关于司法公开的六项规定》《人民检察院案件信息公开工作规定(试行)》等的规定,将除涉及国家秘密外的算法内容以可理解的方式向社会公开并接受公众的监督。
第三,提升算法训练数据的质量。以实践来看,算法因训练数据而产生偏见的主要原因有二:一是数据抽样的偏颇,即抽取了存在偏见的数据对算法进行训练;二是作为“社会现实的镜像表达”,数据歧视来源社会群体既有的偏见,是对后者的数据化反映。由此来看,出于对智能司法辅助系统中算法歧视的防范,在算法的研发和设计中,应当首先坚持采用全部既有案例对其加以训练,避免因数据选择偏差而导致的算法不精确问题。毕竟,按照大数据预测的原理,样本数量越多,结果就越精确。同时,对即将投入算法训练的数据,应当采用数据挖掘技术对其是否存在与法律和伦理要求不符的价值偏见加以检测,并对偏见数据作出必要的矫正,防止其“污染”算法。
第四,强化司法人员的主体地位。孟建柱同志指出,“智能辅助办案系统不替代线下刑事诉讼活动,也不替代司法人员独立判断。”作为司法责任的主体和抵御算法歧视影响司法公正的关键防线,司法人员应保持必要的警惕,防范对其形成“路径依赖”。同时,司法机关也应就强化司法人员的主体地位作出必要的技术和制度安排。譬如,在发挥智能辅助系统全程留痕的优势,为责任追究保留证据的同时;可利用强化对司法人员文书说理情况的监测,敦促其将决策的思维过程在裁判文书中表达出来,为强化监督,也为当事人合法权利的维护,提供必要的保障。