刑事司法人工智能的负面清单

【法宝引证码】
    【学科类别】人工智能
    【出处】《探索与争鸣》2017年第10期
    【写作时间】2017年
    【中文关键字】刑事司法;人工智能;负面清单
    【全文】

      人工智能在刑事司法领域的应用,必须有明确的禁区。以政策性调控措施明确禁区范围,是相对妥当的做法。受刑事司法规律的制约,案例规则及其调整,以及包含政策指引、改革试验和地方规范在内的非正式制度,是刑事司法智能系统的核心禁区。智能型标准化,是案件质量分散保障机制的重要手段,但涉及刑事实体法的适用,智能辅助办案系统须满足相对性、可靠性、适度性、独立性和可控性的要求。
     
      十几年前,当人们阅读有关法律人工智能或者人工智能与法律推理关系的文献时,想必绝大多数人会觉得,法律领域的人工智能只是很久以后的未来可能的图景。今天,在“未来已来”的时代,法律人尤其是法律实务工作者,已真切地感受到,法律人工智能是触手可及的,或者是早已身在其中、享受着人工智能带来的便利。
     
      对法律人工智能迅疾发展的态势及其初步成果的司法应用,理论界与司法实务界的反应有着显著的差异。法学界反应迟缓,少有文本表现,至多是置身事外静观事态的发展,弥漫着浓重的保守气息。而在法律实务界,尤其是司法界,却呈现着另一番景象:依据决策层“创造性运用大数据提高政法工作智能化水平”的部署,司法机关以高昂的热情、巨额的投入、异乎寻常的速度和规模,实现人工智能与司法操作的对接,众多成果已经实际启动司法运行。
     
      当前刑事司法领域人工智能的特点,着重表现为:一是,几乎涉及刑事诉讼的所有阶段,不仅有特定司法机关(如检察机关)研制的仅限于本机关法定职权行使的专用人工智能,还有适用于刑事诉讼主要阶段的通用人工智能。二是,从指导理念、研发趋势和运行状况看,几乎没有禁区设置措施,人工智能可以介入任何层次、任何环节的刑事司法判断。
     
      本文以为,即便未来的人工智能极其发达、高超,与人类智慧可以比肩,甚至比人类还聪明,即便始终坚持人工智能处于辅助办案的地位,人工智能在刑事司法领域必须有明确的禁区,除非人类法治文明对刑事法治的要求或相应标准发生了颠覆性的改变。
     
      是否需要设置禁区
     
      人们习惯性考虑的,首先是官方的立场和态度。因为这是一个与国家政策密切关联的领域。国务院《新一代人工智能发展规划》(国发〔2017〕35号)从司法管理的角度,对“智慧法院”明确规定:“建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化。”该规划作为科技、产业政策,对人工智能发展的不确定性带来的新挑战,强调“加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展”。
     
      具体对刑事司法领域的智能辅助办案系统,决策机构的定位是:为公检法相互配合、相互制约提供新载体,为线下办案活动规范化提供助推器,为司法人员依法独立判断提供好助手。这就明确了“运用智能辅助办案系统,不会替代线下刑事诉讼活动和司法人员独立判断”的智能系统司法运行的主旨。显然,在国家总体工作部署和基本政策层面,对刑事司法领域的人工智能,并没有禁区设置措施的安排。
     
      在系统研发、技术实施的层面,对刑事司法人工智能应否存在禁区,技术界与司法界有着不同的立场。技术界始终是积极进取的姿态,通常的见解认为,只要技术可以实现,人工智能在司法领域的应用空间,就不应有所限制。在技术界看来,人工智能是使用机器代替人类实现认知、识别、分析、决策等功能的技术,其本质是对人的意识与思维的信息过程的模拟;作为一种基础技术,人工智能的发展终究会处理司法判断中需要自由裁量、自由心证的问题,即替代司法官实现非规范判断。
     
      技术界甚至自信而乐观地预言,计算法律(computational law)和算法裁判,或将成为法律的终极形态,人工智能可以代替法官直接作出裁判,换言之,人工智能司法应用的最终成果,会实现由裁判辅助者向裁判生成者的转变。总之,技术无价值(倾向),技术无禁区。在技术界的观念中,这就是司法人工智能应有的品质。
     
      在司法界,一种基于“谨慎乐观态度”的观点,具有相当的代表性。该观点认为,智慧司法所需要的人工智能,第一要务是辅助或服务司法官办案,不是替代司法裁决、淘汰办案司法官。
     
      在司法大数据存在很大局限性的基础上,人工智能在司法领域的应用,需要分步骤进行:一是,通过智能语音识别技术,将司法辅助人员从记录或咨询事务中解脱出来;二是,将智能图像和文件识别技术嵌入司法办案系统,将司法官从简案处理和繁琐文牍中解脱出来;三是,通过数据提纯、算法测试和专业训练,让系统变得更加智能,辅助司法官决策判断;四是,或许真的会出现“阿尔法法官”自主办案系统。
     
      这种观点强调,司法人工智能的研发水平,实际距离第三步的实现,还遥遥无期。因为,辅助司法官决策判断的系统,必须以海量数据为基础,以类型化案件为突破口,通过提炼裁判规则、研发最优算法、归纳既有经验,在类型化案件中实现以裁判规则、司法经验归纳为基础的有限智能化。“可以预见的是,在类型化案件中,有可能形成统一的智能化算法;在不那么规格化的案件中,至少可以做到法律依据提醒、政策比较和类案参考。”
     
      本文以为,在司法人工智能研制大干快上,特别是刑事司法人工智能的研发成果频频问世,舆论好评如潮,初级智能系统实际适用效果有待检验的背景下,前述观点客观、理性、严谨,批评中肯,建言切实。
     
      其中,辅助办案系统“有限智能化”的提法,就暗含着司法人工智能的作用空间应当受到限制的观念。一方面,它实际否定了司法人工智能系统自主办案的可能性,换言之,即便是未来的超级人工智能确实具备相应的能力,也只能辅助司法官办案,禁止其径直作出司法裁决。另一方面,它强调,相当数量的非类型化案件或者案件的非类型化因素,是可能形成的、统一的智能算法实际难以适用的领域;对非类型化案件的司法裁决,人工智能至多具有辅助的作用。
     
      某种程度上,正是司法活动的规律、司法判断的特点,客观决定了人工智能在司法领域的作用空间或实际禁区。尽管“有限智能化”是司法界通行的观点,尽管对司法人工智能明确定位为“辅助办案系统”,但在具体操作层面,究竟如何稳妥地划定人工智能的司法禁区,尚未形成明晰的共识。就刑事司法而言,需要结合一般司法规律、刑事判断特征与司法人工智能的可能风险,从多角度进行必要的深度分析,才能促成这种共识的达成。
     
      探讨司法人工智能的禁区,可以有多种思路及其相应的理据。以立法方式,对人工智能的应用采取必要的法律监管,是一种较为便捷的防范人工智能可能或潜在风险的措施。在美国,为应对人工智能的普遍应用可能对社会运行产生的冲击,立法机构已经着手考虑,对人工智能技术可能在刑事司法等领域的滥用,予以必要规制。
     
      另外一种思路也较为常见,以理论思辨方式剖析人工智能与人类的差别,揭示人工智能根本不能具有的或者无法习得的人类能力,进而实际否定人工智能可能的风险或威胁。相应的理论分析指明,人类文明早已是一种混合了人类和机器的文明,人工智能是人的智性结晶,具有模拟人的意识与思维过程的能力;但人不光有智性,还有心性和灵性,人类的心性、智性和灵性是相辅相成且互相制衡的,人的心性是感情、情绪、感觉的发源地,人的灵性与人的精神世界、崇拜及信仰有关;人工智能不具有人的心性和灵性的潜力,人工智能的发展会受到人的心性和灵性的制约。
     
      依据这种推断,不仅需要人的智性,而且需要人的心性和灵性融入其中的司法判断技能,很难被完全转化为算法而由人工智能所掌握。算法裁判无疑会具有模拟人的智性、体现人的智性的功能,但很难具有源于人的心性和灵性的司法判断潜质。由此推论,设置司法人工智能的禁区,至少是以部分虚幻的假定为前提的,或者说,司法人工智能的禁区无须人为设置,因为这种禁区的客观存在,是由人工智能欠缺的人的心性和灵性的特质所决定的。
     
      显然,这一抽象思辨的结论,基本排斥了人工智能对司法活动可能形成的威胁,自然会降低对算法裁判风险的过度忧虑。但这种提振信心的方式过于浪漫,欠缺实效,不利于实施防患于未然的措施。而前述立法规制的方式,也未必就是好的选项。因为,立法内容如过于原则,会不具操作性,难以形成规制效果;立法内容如超前性把握失准,恐有妨碍人工智能技术发展之虞。于是,基于政策考量出台相应措施,或许是当前技术发展状态下较为稳妥的做法。
     
      核心禁区何在
     
      对司法人工智能的具体应用范围实施政策性调控,首要的条件就是,必须阐明特定司法领域或特定司法判断的独有规律。就刑事司法而言,对人工智能技术应做适当限制的领域,重点包括以下方面:
     
      (一)案例规则及其调整
     
      刑事司法的常态,包括两类有所区别的司法判断活动。准确适用既有刑事规则判断案件相关问题,或者严格依据实体性和程序性规则对具体案件作出判断,是最为常见、占比最高的刑事司法类型。其中的重要特征是,所适用的全部规则是既有的,对案件作出司法裁判的依据,均具有超稳定的属性。
     
      第二类常态的刑事司法活动,是以较低位阶规则的调整为特征的。此种类型的刑事实体性判断,必须符合罪刑法定原则,所依据的基本规则即立法规范明确,通常还有司法解释、规范文件、指导性案例作为裁判依据,但其所依据的最直接、最细化、位阶最低的规则,是调整而成或创制而成的。换言之,这种刑事司法判断,既是生成新的细化规则的过程,也是以新的细化规则作为裁判依据的结果。
     
      本文以为,人工智能在刑事司法领域的应用,只能以前一类司法判断为范围,应当禁止人工智能在后一类司法活动中的应用。简要理由为:
     
      以刑事司法为视角,刑法规则尤其是定罪规则,是由不同位阶的规则组成的体系。其中,效力最高的,当然是刑法立法规定和法律解释(立法解释);效力位于第二的,是司法解释、规范文件、指导性案例所明确的相对细化的规则。然而,仅有前述两种位阶的规则,很难满足司法实务的实际需求,刑事司法的规律要求有更为细化的规则作为定罪指引,这种最细化的指引性规则,尤以案例规则最为常见、最为活跃。前述所言“调整而成或创制而成的”最低位阶的规则,主要是指这种案例规则。本文以为,禁止人工智能在案例规则调整领域应用,主要是由案例规则的基本特征所决定的。
     
      第一,作为刑法规则体系中最为活跃的规则,案例规则的首要特征,自然是多样性。多样性主要表现为,对相同的事项或者相同的问题,存在着不同的案例规则。其相应的适用结果是,对同一案件,依据不同的案例规则,可能出现不同的司法裁判。例如,对“扒窃”的对象,虽然司法解释已经明确规定为“他人随身携带的财物”,但是在实际操作层面,依然存在着财物贴身说与财物近身说的不同司法主张,与之相应,也存在不同的案例规则。
     
      须知,案例规则的多样性,是上位规则细化的重要方式之一,也是孕育更新上位规则或相同位阶制定规则的重要途径之一;多样性符合罪刑法定原则,是司法官依据刑法规定、司法解释行使自由裁量权的体现;与相同位阶的制定规则(如创制型地方规范)相比较,很大程度上,多样性是由规则的载体形式所决定的;不能以适用某种具体规则的案件多寡或主张某种规则的司法官比重,判断案例规则的对错。
     
      所以,在案例规则层面,“同案同判”或“类案同判”的要求是欠妥当的,违背司法规律。某种意义上,司法官对不同案例规则有选择适用的权利,甚至可以依据对法律规定的正确理解,在既有案例规则之外,创制新的案例规则。但是,当前刑事司法人工智能的研发目标或设计标准,却趋势明显地意图消除这种多样性。对这种不区别刑事规则领域的人工智能技术,应当有适当措施予以必要限制。
     
      第二,观察刑事实务可以发现,案例规则,除较长时间处于稳定状态的以外,部分案例规则,会升格为更高位阶的规则;部分案例规则,会转化为位阶相同的制定规则。这是案例规则与上位规则、相同位阶其他形式规则相互关系的实在状况。这种状况,就是案例规则的暂时性特征。
     
      某种程度上,当案例规则升格之后或转化之后,以案例为载体的规则,不再具有价值,但原案例规则的裁判理由,可以作为理解新规则的司法文献,或者间接作为适用新规则的说理依据。需要注意的是,更高位阶的规则(司法解释、规范文件的内容和指导性案例的要旨),适用效力当然高于案例规则;位阶相同的制定规则,虽然效力等级与案例规则相同,但司法官几乎没有适用与否的自由裁量空间,它对司法判断的事实约束力,明显高于案例规则。所以,升格之后或转化之后的规则,当然排斥原案例规则的适用。
     
      作为案例规则的重要特征,暂时性着重用于揭示新的裁判规则或更高效力的新裁判规则的生成规律。这一规律的核心是,只有相应层级的司法机关才有权或实质上能够制定新的裁判规则。换言之,它不是司法官可以行使的权力。基于深度学习(Deep Learning)、迁移学习(Transfer Learning)的人工智能,如果应用于刑事司法领域,极有可能自己生成新的裁判规则,改变规则提供主体的性质。也就是说,刑事司法判断,有可能以人工智能提供的裁判规则作为依据。对此,理应设置严格的禁区,防范可能的风险。
     
      第三,如果不是探讨人工智能的应用问题,案例规则的公开性几乎可以略去不提。公开性首先是规则本身的公开,以及多样的案例规则内容的公开,只有如此,司法官才可以比较判断并选择适用,行使自由裁量权。其次,公开性是指案例规则升格为上位规则或转化为相同位阶的制定规则的路径、理由等,从中,司法官可以知晓新规则的渊源,便于司法官把握新规则的说理依据。换言之,公开性是案例规则适用,以及案例规则升格、转化后的规则妥当适用的必要条件。
     
      如果人工智能应用于案例规则调整的领域,由“黑箱”算法而导致的算法决策的高度隐蔽性、极难被设计者控制的特性,会屏蔽对既有案例规则、案例规则调整轨迹及内容的知悉可能,造成司法官无法掌握规则调整的状况,甚至可能使司法机关失去对规则整理、规则发展、规则细化的控制。更何况有关实验已经表明,人工智能技术已经具有了躲避人类监管的企图和能力。
     
      第四,无论多么细化的裁判规则,都丝毫不能偏离公正的基准。公正性,是与多样性关联的、有必要单独强调的特征。一定意义上讲,案例规则的公正性,是以遵循罪刑法定原则,符合立法规范的明确规定为标准的。对同一事项或同类问题,并存两种以上案例规则,是因为司法判断需要保持适当的弹性,以适应类案的复杂性。
     
      多种案例规则,凡是在法律规定的含义之内,都符合公正性的要求。但是,这种多样的案例规则与明确的立法规定之间的平衡,或许由于人工智能技术的介入而受到破坏,且很难被察觉。例如,迄今难以消除的算法歧视,会形成“自我实现的歧视性反馈循环”,使歧视得到巩固,进而以算法决策的方式损害规则适用的公正性,甚至扩大刑事司法的不公正。
     
      (二)非正式制度
     
      刑事司法的良性运行,不仅必须以坚实的正式制度为基础,还需要非正式制度参与其中。其中,正式制度又可分为刑事立法确定的制度,以及司法解释、规范文件明确的制度。在刑事法律制度初步形成、相对完备的条件下,正式制度通常源自于、脱胎于非正式制度,但非正式制度也可能长期存在于司法操作层面,并非必然或者一律最终转化为正式制度。与刑事司法有关的非正式制度,主要包括刑事政策、改革试验和地方规范。这些非正式制度除共有属性、相同特点外,也有各自的独有特征,它们决定了人工智能应用范围的边际。
     
      1. 刑事政策
     
      刑事政策所具有的非正式制度属性,取决于刑事政策的功能。本文以为,刑事政策的重要功能之一,应当定位于,它是参与刑事法律适用不可或缺的制度资源、广义依据;只有在刑事法律与刑事政策的协调作用下,才能使刑事司法产生兼顾刑事法律适用与社会时代需求的效果,即完整意义的刑事司法才会具有的效果。
     
      相对于既有的刑事法律制度,刑事政策的作用通常会以刑事政策的制度化方案(区别于既有制度的新制度)得以实现。刑事政策与其制约之下的制度化形式和制度化进程,大体表现为基本政策—政策指引—改革举措(改革试验)—正式制度的演进形式和转化过程。例如,刑事案件速裁程序、认罪认罚从宽制度改革,就是历经基本政策、政策指引发展环节,目前处于改革试验阶段,预期成为正式制度的前景明朗的实例。
     
      其中,政策指引和改革举措,不仅是正式制度的源流,而且会相对独立、长期稳定地存在于刑事司法过程之中,作为刑事政策的恰当存在形式或者最佳作用方式,参与刑事法律适用的活动。政策指引与改革举措,未必是阶段性明显的发展环节,两者或许完全重合或部分交叉。但可以较为清晰区别的是,刑事司法的改革试验,必须以立法机关依法授权为条件,且有确定的试点期限和试点地区;而政策指引,自然不具有这样的限制条件。
     
      政策指引相对于基本刑事政策,当然更加具体。而相对于具体制度(包括正式制度、改革举措和地方规范),则具有内容较为概括、提倡适时调整、不成文或非公开,以及实施效果区域差别较大等特征。在与刑事实体法适用有关的领域,政策指引担当调整法律实际适用范围的角色,它具有激活既有规范、指引裁量方向、扩张裁量空间,赋予实体法适度的政策弹性,并在一定区域、一定时期统一政策实施尺度的功能。
     
      但所有这些,都以严格依法为原则,只是“在法律规定的范围内,适时调整从宽和从严的对象、范围和力度”。最具代表性的政策指引,莫过于各国或地区的检控(起诉与不起诉)政策指引,例如,德国检察实践中检控政策的非公开、不成文的实际状况;荷兰在刑事诉讼法典之外,基于便宜原则的不起诉政策指引,是一半以上不起诉案件的直接依据。再如,受检控政策指引的影响,在德国,虽然适用统一的联邦刑法和刑事诉讼法,但“刑事程序终止”率在各州的差异很大,从南方州的40%到北方州的80%之间不等;在法国,“作轻罪处理”的实践,由于更多考虑地方刑事司法优先方向、可利用的地方资源等缘故,已经形成一种“地方刑法政策”。足见,在西方法治发达国家,政策指引的地方性差异,或者由政策指引所致的刑事法律适用差异,是刑事司法的规律性表现。
     
      我国宽严相济刑事政策的实施,也受相同规律的制约。以常见、多发的醉驾犯罪为例,虽然适用的是相同的刑事法律、相同的司法解释性质规范文件,但由于各地政策指引(有的地区直接转化为地方规范)的差别,使得各地对醉驾犯罪的实际入罪标准、处罚力度、裁判尺度等存在显着差别,甚至出现了醉驾实际状况与入罪规模不符,不同机动车驾驶者入罪比例失衡的状况。
     
      所以,在充分肯定刑事政策的功能、政策指引的积极作用的前提下,人工智能的司法应用必须特别注意:至少在政策指引稳定性不足或者异常变动的领域,尤其是已经出现地区间司法适用尺度悬殊的领域,应当仔细甄别政策类刑事司法数据的性质,屏蔽无用(无效)数据,剔除有害数据,充分开掘、深度利用有用数据,确保智能系统政策类数据来源的可靠性。数据的可靠性,须以真实、完整、有用为基础,也即足以反映司法规律、契合办案需求、具有实现形式正义与实质正义相统一的效果。如此,才能符合人工智能对数据的基本要求。“机器学习是典型的数据驱动的思维方式,它从数据出发,通过各种计算方法来理解数据,并建立适当的算法模型来拟合数据并得到结论。”
     
      2. 改革试验
     
      我国既往的刑事司法改革试验,大致分为两个发展阶段。由政策性运行到法制化运行,是本世纪初期开始的刑事司法改革的重要特点,一定的政策规划或政策许可,几乎成为对正式制度改革的基础。所以在此阶段,刑事司法改革启动的法律依据薄弱,试验过程的质量控制机制欠缺,自发性显着,区域差异较大。尽管某些改革成果,最终转化为立法明确规定的制度,如公诉案件刑事和解制度、未成年人附条件不起诉制度,但这种改革方式始终受到质疑。
     
      于是,自2012年年底开始,刑事司法改革步入新的阶段。对与现行法律规定不一致、修改法律条件尚不成熟、需要先行先试的改革举措,全国人大常委会按照法定程序作出授权决定,为局部地区或者特定领域先行先试提供法律依据和支持,确保有关改革试点在法治框架内依法有序推进。刑事案件速裁程序改革、认罪认罚从宽制度改革,便是“法治框架内依法有序推进”的刑事司法改革。
     
      但是,改革的依法有序推进,并不能消除改革本身固有的特征,即各试点地区之间失衡状况明显,不同试点阶段的裁判尺度差异较大等。例如,在认罪认罚从宽的试点工作中,作为实体从宽依据的量刑规则,除具有法律约束力的规范外,主要是具有事实约束力的地方量刑细则或地方特别细化规则。据此,不同试点地区,甚至同一试点地区的不同司法机关,对认罚的量刑减让、对从简程序选择的量刑减让的幅度,存在过于悬殊的差距。一定意义上讲,刑事司法改革就是一个允许试错的过程。即便是在法治发达国家,刑事司法改革也是“有前途的失败”的努力过程。在前述两项改革试点中,本应予以相对不起诉的案件,却被不适当或规模化提起公诉、予以从宽处罚,坦率讲,就是典型的失败实例。
     
      所以,人工智能应用于刑事司法改革领域,会存在客观障碍。一是,改革失误的经验,不可作为人工智能的学习素材或训练数据。否则,数据输入的错误必然导致司法判断的失真,陷入“垃圾进、垃圾出”的困境。二是,改革的举措,未必对应地、直接地转化为未来的正式制度,试验所得的经验与成熟制度的安排之间,未必是完全协调或基本对接的状态。可靠的辅助办案系统,只能以正式制度的稳定运行作为数据采集的基础。三是,改革的尝试,未必会一律体现为正式制度的确立,某些改革的举措,或许较长时间内以非正式制度的形式存在。毕竟,理想中的司法人工智能,既包括裁判规则的类似应用,也包含为既有规则的改变和反思提供数据积累。
     
      3. 地方规范
     
      尽管理论界长期质疑,立法机关明确禁止,有关刑事司法的地方规范,依然普遍存在,并可以产生正式制度难以比拟的司法效果。所以,地方规范是不可忽略的非正式制度载体,更是探讨人工智能的应用范围,理应高度关注的领域。例如,2017年上半年,在醉驾案件受理移送审查起诉人数同比下降19.6%的基础上,浙江检察机关对醉驾案件的不起诉数同比上升127.4%。其直接原因是,该省检察机关适用浙江省高级人民法院、人民检察院、公安厅《关于办理“醉驾”案件的会议纪要》(浙高法〔2017〕12号),以更好地贯彻宽严相济刑事政策,更加稳妥地处理醉驾案件,从源头上有效控制案件数量。作为直接办案依据,这一《会议纪要》就是典型的地方规范,而且是对醉驾案件定罪量刑标准作出相应调整的新的地方规范,其实然的司法效果异常显着,具有规模化影响司法判断的功能。
     
      涉及刑事司法的地方规范,至少可以分为以下三种:第一,上位规则且主要是司法解释、规范文件的细化规定,属于正式制度的延伸。例如,以最高人民法院《关于常见犯罪的量刑指导意见》(法发〔2017〕7号)为指导纲要,各高级人民法院制定的《〈关于常见犯罪的量刑指导意见〉实施细则》。
     
      第二,没有直接的上位规则作为依据,不是直接上位规则的细化规定,而是创制型地方规范。这种地方规范,不仅可能是上位规则的生成渊源,而且是非正式制度的重要存在形式。
     
      第三,明显违背直接上位规则的地方规范,虽然不具有合法性、合理性,但作为一种实在的规范形式,会对司法判断或司法裁判形成事实上的约束力。前述第二、第三种地方规范的规定,都属于非正式制度,只是有合理与不合理或相对不合理的区别。
     
      本文以为,合理或相对合理的地方规范,不仅是客观的、具有事实约束力的细化规则,而且是符合刑事司法规律的、值得重视的裁判规则。最低限度,它是被立法机关默认存在、最高司法机关间接认可的规则形式。最高人民法院、最高人民检察院《关于地方人民法院、人民检察院不得制定司法解释性质文件的通知》(法发〔2012〕2号),明确将地方司法机关制定的文件,分为司法解释性质文件与其他规范性文件,并明确禁止制定司法解释性质文件,但允许制定不属于司法解释性质文件的其他规范性文件,只是禁止在法律文书中援引其他规范性文件。依此标准,前述第一、第二种都是合理的地方规范,但分别属于正式制度与非正式制度的范畴。
     
      涉及地方规范的人工智能,首先,需要甄别正式制度与非正式制度,属于正式制度的地方规范,理应作为充分利用、深度开掘的数据。其次,对属于非正式制度的地方规范,应当仔细研判,确认不合理的地方规范。凡与此种地方规范有关的刑事司法资料,绝对不得作为人工智能的学习素材或训练数据。再次,属于非正式制度的合理地方规范,通常是由案例规则转化而来的,它以相对稳定性和适用统一性,与多样性、暂时性的案例规则相区别。与这种地方规范有关的司法活动,可以纳入人工智能的应用领域。但在应用中,需要及时跟踪地方规范的变动情况,注意剔除与新的制定规则不一致或相冲突的旧有规则,以及有关的刑事司法资料。
     
      例如,前述浙江省《关于办理“醉驾”案件的会议纪要》执行之日,该省《关于办理“醉驾”犯罪案件若干问题的会议纪要》(浙高法〔2012〕257号)和该省高级人民法院刑三庭《关于“醉驾”犯罪审判中若干问题的解答》(2014年4月30日)就不再执行。显然,在新的地方规范生效之前,依据旧有规则办理案件所形成的刑事司法资料,不能再作为人工智能的数据来源。
     
      能否实现智能型标准化
     
      刑事司法领域的人工智能,受到异乎寻常的重视,发展迅猛,成果频出,是不争的事实。为“努力构建适应实践需要、符合司法规律、体现时代特征的刑事司法新模式”,决策层将智能辅助办案系统,实际作为“刑事司法新模式”的重要参与要素或决定性条件,期望人工智能可以帮助司法人员克服认识局限性和主观随意性,促进对案件事实证据的认定符合客观事实,统一司法尺度,保障司法公正。
     
      其中,统一司法尺度,是对刑事司法智能系统功能的基本定位。这一核心功能,在决策实施的指导层面,被清晰且通俗地概括为“标准化”。以标准化为核心功能的司法人工智能,会给法院的模式带来几方面的变化:改变法官的判断和决策模式,改变诉讼流程,改变法院的人员配置模式和设置模式等。较为展开的表述是:“标准化就意味着将审判权还给法官的同时,确保类似案件的裁判尺度尽量相同。”
     
      这就是刑事司法人工智能受到青睐、快速发展的直接原因。换言之,“刑事司法新模式”就是能够确保“类案同判”效果的智能控制模式。一定意义上讲,这是司法改革顶层设计没有包括的举措或未及规划的内容。它之所以被及时补充为改革的重要配套措施,或许与人工智能技术的快速发展有关,但更主要是顺应司法实践迫切需求的产物。
     
      所有这些,与传统的案件质量控制模式发生变化,或传统的案件质量控制机制失灵,有着最直接的关系。在法官、检察官员额制实施之前,确保案件办理质量和裁判尺度统一的机制,不符合“让审理者裁判,由裁判者负责”和“谁办案谁负责、谁决定谁负责”的司法规律。随着法官、检察官员额制的实施,司法责任制确立、落实的条件得以满足,需要以新的质量控制模式,替代旧有的质量控制模式。
     
      但是,对既往质量控制模式的依赖习惯尚未彻底消除,新的质量控制模式尚欠完善或者运行不畅,致使质量集中管控机制向质量分散保障机制的转换遇到诸多问题。在此背景下,又遇到员额司法官大幅减少与案件数量飞速增加,以及“司法责任加重与司法资源不足”的矛盾凸显,于是,多种问题的叠加促成智能型标准化的思路形成,以期这种控制模式实现新形势下的“统一司法尺度”的使命。
     
      本文以为,作为案件质量分散保障机制的重要手段或参与要素,智能型标准化在刑事司法领域具有总体可行性,但涉及刑事实体法的适用,须有所限制或特别慎重的方面,主要包括:
     
      (一)相对性
     
      相对性,即区域间实体法适用的合理差异。之所以允许实体法适用存在区域差异,是因为与刑事程序法、刑事证据法的刚性规定不同,刑事实体法的适用依法存在必要的裁量空间,更具有合理的适用弹性。
     
      首先,相对性主要体现为正式制度适用的差异。例如,以最高人民法院《关于常见犯罪的量刑指导意见》(法发〔2017〕7号)为指导纲要,各高级人民法院制定的《〈关于常见犯罪的量刑指导意见〉实施细则》的具体规定,实际存在着差别。依据不同的地方量刑规范,最终裁量的刑罚会有实际的差异。但是,这种地方量刑规范,具有明确的上位规则为依据,是正式制度的组成部分,依据此类规则裁量刑罚而出现的差异,属于正式制度许可范围内的差异,是具有合理性的差别。
     
      其次,相对性是被现行司法责任制所认可的。换言之,作为判定司法责任基准的裁判尺度,是以相对性为基本特征的。最具说明力的,是有关司法责任制的规范文件,均对裁判尺度做一定范围的限制性表述;并将“在专业认知范围内能够予以合理说明的”,当做不得作为错案追究责任的事由。这些规范内容,意味着裁判尺度的相对性或地域性。
     
      再次,相对性也包含政策指引的合理差异。这不仅符合政策指引适时调整的规律性特征,而且也被司法责任制的规范所认可。最典型的现象,莫过于同一城市不同基层检察院的政策指引,会导致诉与不诉的规模性差异,即同类案件有的普遍做相对不起诉处理,有的被普遍定罪免刑,甚至定罪适用缓刑。
     
      基于上述各种情况,本文以为,应当禁止或者尽量避免使用全国通用的智能辅助办案系统,至少应当在嵌入能够适应区域性标准化控制的功能之后,再实际应用于刑事司法领域。
     
      (二)可靠性
     
      在刑事司法人工智能的研发中,重大、疑难、复杂、新型案件的数据来源,比常见、多发且相对简单案件的数据来源,在可靠性方面受到的重视程度高得多。换言之,对占比高达80%左右或更高的简单案件,真实、完整且有用的数据,在智能系统研发中没有得到足够的重视,甚至被严重忽视。
     
      这是因为,司法智能系统的研发,本应是从标准或比较标准的判决中提炼共性,进而明确类案同判的统一裁判尺度或标准。但是,在实际操作中,标准的刑事判决或判断,有时被简化成为裁判文书。正如审判专家所概括的,与这种简单案件裁判文书关联的大数据,“体量”并不代表“质量”,“大”并不代表“准”,现在并不代表未来。这突出地表现为刑事裁判文书的说理性不强,也即“无理”判决的现象:在事实和证据方面,缺少对形成心证过程和理由的阐述;在裁判理由方面,对适用法律的论证过于简单、概括,说理不够、不透、缺乏针对性;在诉讼过程方面,未能完全展现案件审理的全过程。而所有这些需要透彻说理的内容,或者能够用于提炼案件规则的资料,却在作为“内部文件”的案件审理报告或审结报告中有全面、详实的体现。
     
      总之,这样的情形,若出现在简单案件的数据采集中,其后果及其可能带来的危害,是不堪想象的。因为,这种丝毫没有数据挖掘价值的信息,一旦成为刑事司法智能系统的数据来源,一是,无法真实反映案件判断所依赖的裁判规则、审理经验等;二是,对辅助案件裁判,哪怕是最基本的类案检索,都没有实际的作用;三是,说理简单或者说理千篇一律,等于强化了不说理,并由此会形成辅助未来裁判的有害数据。
     
      所以,杜绝没有可靠性的数据,包括外观仅是无用、但经智能系统应用会生成的有害数据,才能实现智能型标准化所预期的效果。
     
      (三)适度性
     
      适度性着重在于提示,刑事司法智能系统的应用不要有过度的强制性标准。之所以强调适度性,最主要的原因是,司法智能系统的研发和应用,已经显露出改变司法官判断和决策模式的显着趋势;尤其是这种趋势,还带有混淆指令性判断与裁量性判断界限的明显痕迹。在此背景下,依赖智能型标准化实现的案件质量控制,更应切忌绝对化。也即除依法必须适用的刚性规定之外,对其他依法可自由裁量的领域,智能系统的应用必须预留基本裁量空间,否则,与法律规定和司法规律不符。换言之,司法判断有指令性判断与裁量性判断的区分,对于这两种不同类型的司法判断,智能系统的设计和应用,必须在严格区分的基础上有不同的实现方式。
     
      凡属于裁量性判断的事项,智能系统可以采取“适用指引”的方式,实现案件质量的标准化控制,也就说,可以由系统给出自由裁量的合理区间,供司法官参考;但理应禁止出现绝对化的、意图统一裁量性判断的质量控制标准。
     
      总之,裁量性判断的质量控制,无论是传统模式,还是智能模式,都必须以符合司法规律和有关法律规定作为基础。否则,越是智能化的控制模式,反而会使裁判尺度校准失误。
     
      (四)独立性
     
      刑事司法智能系统的具体类型很多,目前最被看好的,或许最有发展前景的,是公检法通用智能系统。这种被称为“推进以审判为中心的诉讼制度改革软件”,是要通过公检法在共同的数据办案平台上、明确的基本证据标准指引下办案,推动以审判为中心的刑事诉讼制度改革落地、提升刑事司法的质量和效率。这种通用智能系统,形式上,将公检法机关原本独立的数据办案系统打通;手段上,主要以基本证据标准指引,引导办案机关和工作人员依法、全面、规范收集、审查证据;实质上,是重构刑事案件的办案流程。
     
      本文以为,研制刑事司法通用智能系统的初衷,或预期实现的目的,是值得充分肯定的。其研制及应用的思路之一,符合我国刑诉法对各诉讼阶段证据标准的规定。依据刑诉法的规定,侦查终结的证据标准,与起诉的证据标准和定罪的证据标准完全相同。具体而言,证据质的方面,侦查中获取的用于结案的证据均逐一查证属实,其他证据也经过一一核实;证据量的方面,证据的数量足以使人就犯罪嫌疑人是否有罪及应受刑事处罚,作出肯定或否定判断。起诉证据标准的质和量,自然也是如此。
     
      但是,通用智能系统中基本证据标准指引的功能,并不排除会引起以下问题:一是,案件的实体定性,未必会在各诉讼阶段始终保持一致,实体判断构成的罪数,也未必完全相同。但是,通用智能系统是以特定罪名及其类型,分别确定证据标准指引,如盗窃案件分为当场抓获型、重要线索型和网络犯罪型的证据标准指引。如侦查时认定为A罪,公诉机关以B罪起诉,法院判决构成C罪,暂且不说通用智能系统如何实现实体判断与证据指引的对接,这种实体判断误差的责任由谁承担呢?具体承办人?所属办案机关?智能系统?开发智能系统的机构?
     
      二是,侦查机关、检察机关和审判机关在通用智能系统办案,如何能够确保侦查权、检察权、审判权专属原则的落实?能否保障依法独立公正行使审判权与依法独立公正行使检察权的正常关系?能否有效避免可能出现的“提前介入”的负面后果?
     
      总之,重构刑事案件的办案流程,甚至出现类似“在线指导办案”的迹象,是通用智能系统带来的可能后果。所以,建议有关方面对通用智能系统的研发依据、应用影响等,做审慎判断,或者在积累必要经验的基础上调整实施方案。
     
      (五)可控性
     
      可以想象这样一种场景:在刑事司法智能系统高度发达、应用普及后入职的司法官,无疑会按照“重构的办案流程”作出职责所要求的司法判断,然而他们既无法习得虽然传统但确属司法官必须具备的技能,也无从积累只有传统办案方式才可以获得的司法经验,更会中断刑事办案经验和技能的传承。这是涉及智能办案系统的数据控制权的重大问题。
     
      本文以为,智能办案系统的核心数据,尤其是涉及裁量性判断的数据,必须以传统办案为基础。也即只能从传统方式办理的案件中提炼裁判规则、归纳既有经验,作为智能系统的必要数据来源。这是隔绝智能系统的有害数据或可能的有害数据的有效办法。换言之,凡是与规则生成、经验积累、技能传承有关的数据,必须来自于司法官的独立办案,或者在智能系统有限辅助下的相对独立办案,杜绝以智能系统生成的数据为来源。只有这样,才能确保司法官、司法机关对刑事司法智能系统的数据控制权,机器或智能系统决不能成为规则数据、经验数据、技能数据的提供主体。
     
      为此,至少需做两件事。一是,办案人才的必要训练。可以考虑,要求检察官助理、法官助理以传统(或相对传统)方式,办理一定比例的案件;而法官、检察官办理可能生成新规定、积累新经验的案件,应当力戒智能系统可能的有害影响。以此保障对司法经验、技能的传承。二是,数据更新的严格控制。当人工智能技术高度发达,也即高级智能技术、超级智能技术发展到可以生成新规则的阶段,应当制定并实行有效的制度,对规则生成、经验积累、技能传承等方面的数据,予以严格控制,确保数据源于司法官的判断,而非纯粹来自智能系统。
     
      简言之,凡是与裁量性判断有关的数据,特别是既有智能系统的数据更新,提供主体必须保持唯一性——司法官和司法机关。
    【作者简介】
    黄京平 ,中国人民大学法学院教授、博士生导师。
    本网站文章仅代表作者个人观点,不代表本网站的观点与看法。
    转载请注明出自北大法律信息网

点赞

发表评论

电子邮件地址不会被公开。必填项已用 * 标注