一种法律人工智能建模方案

【法宝引证码】
    【学科类别】人工智能
    【出处】《中国人工智能学会通讯》2018年第3期
    【写作时间】2018年
    【中文关键字】人工智能;法律论证;建模
    【全文】

      首先,我要说,“人工智能”说来就来了。因为十天前我在试图翻译一本书,叫做“LogicallyFallacious”。可在翻译的过程中遇到了一个问题,于是就想发邮件询问一下作者。但我在线填好有关表格之后发不出去,因为有左下角方框中的红色字,其意思是“你需要再检查一下这个盒子,以证明你属于人类”。作者之所以设计这个问题,我猜他也许设定了三种可能:第一种可能写信者的确属于人类,但需要提供证据证明;第二种可能是写信者属于外星人,但估计设计者不是这个意思;第三种可能是写信者属于人工智能。尽管我属于人类,但至今没有成功找到证据证明我属于人类,因此,那个邮件现在都没有发出去。
     
      其次,我想说,“法律人工智能”也来了。因此,让我们一起来讨论人工智能与法律的未来。当前,我认为这个问题是个热点问题,至少我最近两个月每个周末都在参加这类会议。
     
      一个月前,在北京召开了一个香山科学会议(S36)。这次会议讨论的主题是“人工智能技术、伦理与法律的关键学科问题”,组织策划者是中国科学院科技政策与管理科学研究所李真真研究员,她的研究方向科技伦理学,因此,她更关心哪些事情是人工智能不应当做的。
     
      毫无疑问,人工智能技术是其中最关键的问题。当代人工智能技术的标志成果是索非亚,故在此就以“索非亚”来代表“人工智能技术”。在这个会议上大家讨论了两类问题,第一类问题是人工智能与伦理的关系问题。人们最关心的是怕人工智能干坏事,因此要从伦理上约束它,制约它什么事情应当做、什么事情不应当做,即伦理问题。伦理学讲的是应当或不应当做的事情,但伦理约束显然不具有强制力。于是,有些人在讨论第二类问题,即人工智能与法问题。这一问题涉及到两类子问题,其一,用法律将人工智能框起来,规定好什么事情是禁止的、什么事情是允许做的;其二,人工智能与法律的关系问题。其中,第二子问题又有两个子问题。是哪两个呢?我们读一读本次会议的标题,你可以将其读成是“‘人工智能’与‘法律的未来’”,你也可以读成是“‘人工智能与法律’的未来”。而我所关心的正是后者,即“‘人工智能与法律’的未来”,也就是如何充分利用当代人工智能技术提升我们法律服务水平,或者说提升依法治国的能力。这是我要关心的问题,也就是我想要说的“法律人工智能建模”。
     
      人工智能与法律的关系是法律实务界与法律服务界特别关心的问题。两周前,我参加了在上海召开的一个人工智能与法律会议——“智合论坛2017”,《失控》的作者凯文●凯利(KevinKelly)、最高人民法院的何帆处长、最高人民检察院赵志刚主任,以及腾讯研究院曹建峰研究员也都参加了大会。在这个会议上,人们主要讨论的就是怎样利用人工智能来提升法律服务的效率。
     
      人工智能与法律,或者说法律人工智能,已是当前法律界的一个热点问题。其实,这是一个老问题,因为自1987年在美国波尔顿召开“第一届人工智能与法国际学术大会”(ICAIL)以来,已经形成了一个人工智能与法国际学术共同体,有一群志同道合的人一直专注于人工智能与法研究。该学术共同体有“3个1”标志,即:一个系列国际学术会议、一个国际学术组织和一本英文杂志。一个系列国际会议即是人工智能与法国际学术会议。自1987年第一届召开以来,每两年固定召开一届。一个国际学术组织即是人工智能与法国际协会(IAAIL)。该协会于1991年正式成立,实行轮执主席制,两年换一次主席,不得连任。还有一本英文杂志——《人工智能与法》,自1993年开始由斯普林格出版社出版。因此,假如想了解人工智能与法研究的国际前沿动态,可以去关注这三个标志东西。
     
      在维基百科全书英文版上,“人工智能与法”被定位为人工智能的一个子领域,主要涉及的是把人工智能应用到法律信息问题,以及对这些问题原创性研究。所研究的问题可归结为10个问题,而这10个问题又源自编程语言Wolfram的博客网站。最近,这个语言被炒得比较火,被认为是世界上最高效的编程语言。在这个博客网站上,莱布尼兹的头像被作为人工智能与法研究的标识图像,并认为人工智能与法研究主要涉及计算法律、符号话语,以及人工智能章程三大类。根据Woflram网站上的概括,人工智能与法领域的10个问题是:
     
      (1)法律推理的形式模型;
     
      (2)论证与决策的计算模型;
     
      (3)证据推理的计算模型;
     
      (4)多智能体系统中的法律推理;
     
      (5)可执行的立法模型;
     
      (6)法律文本的自动归类与概述;
     
      (7)从法律数据库与文本中自动提取信息;
     
      (8)面向电子取证和其他应用的机器学习与数据挖掘;
     
      (9)概念法律信息检索或模型法律信息检索;
     
      (10)自动执行不重要的重复性法律任务的法律机器人。
     
      在这10个问题中,对于大多数人来说,最关心的是最下面的这个问题,即法律机器人。那么,法律机器人可以做些什么?法律机器人可以做的就是少量的重复性法律任务。既然如此,就不用担心法律机器人会抢法官、检察官和律师的饭碗,也不要寄希望于它能够做一些高端的法律任务。
     
      在10个问题中,前面5个问题是法律人工智能的底层问题或基础问题,也是所有投资者不愿意投资的问题,因为它们是烧钱的事业。但这些问题又是法律人工智能的基础性工作。根基如果没有打好,研发出来的法律机器人的智能水平可想而知。富有极其生命力的法律机器人必须建立在前5个问题的良好研究根基上。我们可以看到,在这前5个问题中,它们的共同特点是都与模型相关;后面的5个问题都与应用有关。在前5个模型中,1、2、3、5都有一个词——“模型”,即涉及到建模问题;而4虽然没有“模型”一词,但是有“多主体系统”。我们知道,要想构建多主体系统,没有模型是不可能的。因此,在前5个基础问题中,毫无疑问,最基础
     
      的是法律推理的形式模型。
     
      法律三段论(见图1)是最基本的法律推理模式。过去在讲法律三段论时,总是喜欢讲法律三段论的结论是裁判结论。假如其结论真的为裁判结果,那就意味着法律三段论只是围绕法官转的,以审判为中心的,甚至叫审判中心主义。从国家层面的司法改革方案来讲,强调以审判为中心甚至审判中心主义,毫无疑问这是对的。但是,对于我们讨论法律人工智能建模来讲,就不能强调以审判为中心或审判中心主义,因为这会导致司法霸权主义,以至于法律的理性与公正就难以得到维系,司法公信力也会因此而受损。于是就需要把原来的“裁判结论”改为“法律结论”。经过这样修改之后,不仅法官应当基于这个模型来断案,而律师也应当按照这个模型来打官司。
     
     
    图1法律三段论
     
      法律三段论模式恰好体现了人们常说的“以事实为依据,以法律为准绳”司法原则。然而,法律三段论模型忽略了证据在法律推理中的特殊地位。有人说“打官司就是打证据”。这句话可能说过了一点,因为打官司还要打法律,还要打法官、检察官或者律师对法条的理解与解释,而不是只打证据。但是,“打官司就是打证据”至少说明了一个问题,那就是证据在法律推理中很重要,而且证据不等于事实,不能把证据与事实混合一谈。
     
      按照传统法律三段论考虑法律推理,由于证据被忽略了,因此你会发现诸如佘祥林、赵作海、呼格吉勒图、聂树斌等之类的重大冤假错案的判决书,均满足了法律三段论之“以事实为依据,以法律为准绳”要求,但这些都是错案,其问题的关键就在于其中忽略了证据与事实之间的推理关系。为此有必要在法律推理模式中彰显一下证据与事实之间的推理关系。不仅如此,大家还要想一想,律师打官司是不是按照法律规范本身来打?法官判案是不是按照法律规范本身去断案?检察官公案是否是根据法律规范本身去办案?显然不是这样。律师打官司是根据他们对法条的理解来打官司,法官判案也是根据他们对法条的理解来断案,检察官公诉也是根据他们对法律的理解来办案。因此,在法律推理中,在法律规范与法律结论之间还有一个环节常常被忽略,这个环节就是解释推理。
     
      现有法律机器人往往是在建立法律三段论模式基础上的,不过常会引入法律证据这个层次。在现有法律机器人中,通常都会建立一个案例库、法律规范库、法律证据库和法律结论库,用户将新的案情输入客户端后,系统从相关知识库通过类比推理寻找相似案件,然后进行数据聚合分析。但没有建模它们中间的推理关系,只是建立起了一个相应知识图谱。
     
      由于传统法律三段论忽略了解释推理或证据推理两个至关重要的推理环节,因此有必要对传统法律三段论结构进行扩充,即扩充成法律五段论(见图2)。这个五段论中,解释推理与证据推理都得以彰显。当然,律师打官司、法官判案、检察官办案都应当以这五段论为基础。既然如此,未来法律人工智能系统或法律机器人就应当建立在法律五段论结构基础之上,才能真正实现自动法律推理。
     
     
    图2法律五段论
     
      要注意,在法律五段论中,其五个部分均用集合表示。既然是建模,就要求这些集合具有极小性和一致性。极小性就是要避免我们的数据冗余太多,一致性是要求无矛盾。如果系统出现冲突,机器没有办法执行下去。
     
      不仅如此,还需要把法律五段论置于诉讼论证博弈框架(见图3)之下来建模。这个诉讼论证博弈相当于上午张力行先生报告中提及的三方博弈。我不知道他所说的三方博弈是什么意思?是不是一种论证博弈?但我这里要说的是一种博弈论证博弈,而且其诉讼论证的基本模式就是法律五段论。传统上,毫无疑问,法律诉讼被视为一种博弈。但传统诉讼博弈仅仅是指起诉方与应诉方之间的博弈,是一种权利与义务的博弈而非论证博弈;审判方只是裁决者,没有被纳入博弈方。在诉讼论证博弈框架中,审判方也成了博弈方,因为他们的裁判书本身就是一种诉讼论证,要经得起来自起诉方、应诉方、上级法院等的挑战。不过,在诉讼论证博弈中,起、应、审三方承载的责任是不同的,审判方作为裁判者,其目的是维护公平正义,而起、应双方博弈的目的就是为了维护自己的合法权益。
     
     
    图3诉讼论证博弈
     
      那么,如何基于法律五段论与诉讼论证博弈来建模法律人工智能系统或法律机器人?首先,要从事实库构建开始。毕竟法律诉讼强调以事实为依据。但是,在诉讼论证博弈当中,起诉方有他自己的事实,应诉方有自己的事实,最后审判方也有自己的事实。这些事实准确地说是法律事实,显然不同于哲学意义上的客观事实。因此,在建模时,首先是建构一个法律事实本体库,即根据法律规范本身解释出来的可能事实,或者说,立法者所预见的可能法律事实。在真实诉讼论证博弈中,必须把起方事实、应方事实和审方事实与法律本身所规定的可能事实进行对比。
     
      其次,要建构一个规范解释本体库,其中的知识是一些从现有法律规范推导出来的可能解释。具体做法就是通常所说的对现有法律规范进行加标,让它们可以进行自动法律推理。法官、检察官和律师在进行法律推理时,这些规范可以不用加标,但没有加标的法律规范库,法律机器人就无法执行自动法律推理。不过,在实际诉讼论证博弈中,起、应、审三方都有着自己的法律解释库,而且其中有些解释是不一致的,甚至是矛盾的,因此,基于法律规范本身的规范解释库才是标杆性的。在大陆法系,这个解释库的构建与立法者的意图直接相关,但与诉讼论证主体无关。
     
      传统上,人工智能与法领域学者们所讨论的法律推理无非两类,一类是规则推理或基于规则的推理(Rule-basedReasoning,RBR);另一类是案例推理或基于案例的推理(Case-basedReasoning,CBR)。然而,随着近来大数据库技术的出现,已有人提出第三种法律推理类型,即数据推理或基于数据的推理(Data-basedReasoning,DBR)。基于这三种类型的推理,在建模法律人工智能时,需要建构两类六个知识库。两类——一类是法律事实库,一类是法律解释库。具体来讲,首先要建构规则推理的规范解释库和法律事实库,即前面所提及的可能解释库与可能事实库。其次,要建构案件推理的法律事实库与规范解释库。与前一类相比,这类知识库是实际发生的知识库。因为有些法律条文虽然规定了可能事实与可能解释,但实际社会生活中可能从未找到对应的法律事实。在基于案件推理的法律事实库与规范解释库中,有些知识可能是立法者并未预见的。第三类知识库是对第二类进行深度学习的结果。经过深度学习之后,可能产生出一些新的法律事实或规范解释知识,这些知识又形成一个新的可能法律事实或规范解释知识,而这些知识在前两类库均不存在。
     
      在法律人工智能系统中,这六大知识库建好之后,实现自动法律推理了。现在我们有某个新法律事实,用FN表示。首先要在基于数据推理的大数据规范解释库和法律事实库中寻找类似的法律事实和法律解释,挑选取最相似的案件。其次,要从基于案件推理的规范解释库和法律事实库进行精确类比,找出最可能的法律结论。最后,要在基于规则推理的规范解释库与法律事实库去寻找最接近的可能法律事实与规范解释。在六个库建好之后,装上一个自动法律推理器或一种算法,然后就可以进行诉讼博弈了。
     
      那么,如何进行诉讼论证博弈?在此,我们始终要记住“以事实为依据、以法律为准绳”这条基本司法原则。在这里,其实它也是诉讼论证博弈的基本原则。首先,以事实为依据。在诉讼论证博弈过程中,对于起、应双方来讲,打官司时不会一下子就将所有证据都开示出来,开示证据肯定是要讲策略的。为了打赢官司,如何开示证据是有技巧的。随着证据的开示,诉讼论证的证据集、事实集和结论集都会自动发生变化。对于法律规范集也一样,选取不同的法条,规范解释集也会发生变化,接着法律结论集也在发生改变。
     
      最后,谈谈法律人工智能建模的算法问题。虽然我们听说过很多算法名称,但归结起来,无非就是数值算法和神经网络算法两种。数值算法是非常传统的算法,它是线性的,其中每个步骤都很清楚。但神经网络算法则不同,它不是线性的,而是网状的,像人脑的神经网络,其输入端和输出端都很清楚;中间是如何运算的,不清楚,是一个黑箱。数值算法有其优势,因为可以从程序上验证每一个环节,但不适合深度学习;神经算法也有其优势,深度学习正是基于这种算法的,但其输出结果不好控制,输出一些完全出人类意料的结果也是可能的,因此,其安全性得不到充分保障。可以预见,一个鲁棒的法律人工智能系统需要结合两种算法。
     
      总而言之,法律人工智能系统是一项复杂的系统工作,要建模它并非易事。要想研发出高智能化的法律机器人,必须从法律推理的形式建模出发,深入探讨前面提及的前5个基础问题。只有前5个基础问题基本透彻了,后面的5个应用问题才有可能真正做到人工智能化。关于前5个基本问题,可参阅我在中国政法大学主编的《西方法律逻辑经典译丛》,目前已出版11本,其中有4本属于法律人工智能方面的。
    【作者简介】
    熊明辉,广东省“珠江学者”特聘教授,中山大学哲学系逻辑学专业与中山大学法学院法学理论专业博士生导师,荷兰国际论辩研究院(ILAS)顾问。研究专长为论证理论、非形式逻辑、法律逻辑、人工智能与法。
    【注释】
    本文根据作者在2017年12月17日“2017人工智能与法律的未来高峰论坛”上的主题演讲整理。
    本网站文章仅代表作者个人观点,不代表本网站的观点与看法。
    转载请注明出自北大法律信息网

点赞

发表评论

电子邮件地址不会被公开。必填项已用 * 标注