澳门新葡亰首页

澳门新葡亰赌全部网址左卫民:关于法律人工智能在中国运用前景的若干思考

一月 24th, 2020  |  审批

2018年8月29日 ( 正文字号: 小 中 大 ) 文章标签:法的社会作用
法律调整及其机制 司法制度 [ 导语 ]
计算机科学在与法学结合的道路上,一直试图将司法流程中的裁判环节以计算机模型化的方式表述出来。只是已有的不成功模型说明了将法官的推理裁判过程降格为简单、可重复、固定、先验但同时又需包罗万象的逻辑模型,可能是个片面误导性的做法。因此,在司法裁判人工智能化的研发进程中,需要斟酌的不仅是技术上的障碍,还应考虑法官的接受度和实际效用。这虽是一个极其复杂而困难的问题,但却是裁判人工智能化应用研究的起点。[
内容摘要 ]
笔者将会继续结合国家对于整个司法结构与功能的预设,来讨论人工智能切入司法裁判的需求背景以及可能出现的发展方向。[
内容 ]

国家2011协同创新研究计划“司法文明协同创新中心”、四川大学法学院教授,法学博士。

“如果不对我国法院在实践中施行的‘错案责任追究制’在实体上和程序上进行合理的限定,建立必要的明确的法官责任豁免制度,很容易导致法官不敢独立审判、不愿独立审判乃至不能独立审判,最终使‘确保依法独立公正行使审判权’的目标落空。”
武汉大学法学院院长肖永平26日在最高人民法院召开的座谈会上作如上表述。当日,来自全国20位法学院校校长(院长)就司法改革发表了看法。
现实之困:错案倒查,法官自由裁量权如何保障?
从河南赵作海案,到浙江“张氏叔侄强奸案”,再到“萧山5青年劫杀案”……近年来,一系列有社会影响力的冤错案件被依法纠正,持续引发关注。
针对社会此起彼伏的呼声,去年8月,中央政法委出台首个关于切实防止冤假错案的指导意见,要求法官、检察官、人民警察在职责范围内对办案质量要终身负责,并建立健全冤假错案的责任追究机制。今年10月举行的中共十八届四中全会,也进一步明确要“实行办案质量终身负责制和错案责任倒查问责制”。
对此,有专家提出,一味地强调“办案质量终身负责制和错案责任倒查问责制”,有可能剥夺法官自由裁量权的本质。
事实上,专家的担忧并不是空穴来风,正如中山大学法学院院长徐忠明所言,“现实生活中,如果一旦发现案件错了,就会有‘做死’的想法,因为一旦翻出来,就有十几个人,甚至几十个人受到惩罚。”
在这一背景下,一些法官出现不敢独立审判、不愿独立审判乃至不能独立审判的情形。
有媒体指出,另一个不容忽视的问题是,办案人员办错案,也可能是因为迫于严打的压力,或者迫于“有关领导”的压力。
对此,肖永平指出,当前,中国司法改革的目标之一就是“让审理者裁判、由裁判者负责”,而要实现这一目标,就必须处理好保障裁判者独立行使审判权与防范裁判者渎职或者滥用自由裁量权的关系。
源头治理:应严格限定“错案”的认定标准和范围
肖永平认为,为了使法官的自由裁量权不受影响,应严格限定“错案”的认定标准和范围。
事实上,一些媒体和规范性文件所使用的“冤假错案”只是社会学意义上的一般说法,因为中国现行法律法规对“冤案”和“假案”均没有法律描述,只列举了上级法院可以改判的一些情形,这些情形可以称为“错案”。而“冤案”和“假案”,只是错案的特殊形式,或者说是错案中最严重的情形。
肖永平说,在司法实践中,冤案和假案的比例很小,如果真正发生冤案和假案,纠正起来也比较容易。错案却不同,凡是违反法律规定,无论是实体法还是程序法,只要定性不当、认定事实不清、证据不足、程序有重大问题等等,都可能列入“错案”的范畴。
为此,他建议,对“错案”的认定还应进一步限定、明确,对于程序、实体上存在瑕疵或错误的案件,如果通过二审、审监程序加以纠正的,没有造成严重后果的,可认定质量瑕疵案件,没有必要归为错案追究责任。对于造成严重后果的,也还需要考量法官是否存在牟取私利、有违中立地位的情形。
“据我了解,还不存在单纯因为质量瑕疵而造成严重后果的案件。”肖永平建议,错案责任追究的对象主要是冤案和假案,对其他类型的错案应该严格限定认定标准和范围,建议以承办法官存在主观上的“故意和重大过失”为必要条件。
南京大学法学院院长李友根也认为,至少是重大过失的、枉法裁判导致的冤案,才可能“终身追究”。
过程控制:明确错案责任追究的启动条件
“再精密完善的司法制度和再公正高明的法官,也不能保证绝对不发生‘错案’,因为错案的判断具有不确定性。”
肖永平说,在现代法治条件下,不同法官因对证据的采信、新证据的出现、法律没有明确规定、法律规定模糊、法官固有的自由裁量权的认识不同,都可能导致不同法官对同一个案件作出不同的判决。因此,不能简单地根据一份“正确”的判决就认定其他不同的判决是“错误”的判决。
在肖永平看来,一个现实可行的选择是,根据法官的具体外在行为,如对法定诉讼程序的违反、中立地位的背离(私自与对方当事人或者律师聚会、就餐)、当事人利益的损害等,评价其是否已丧失作为法官所必备的公信力、公正性,并以此为标准追究法官的责任。
“‘错案’的结果只是启动这种责任追究的必要前提,而不是充分条件。”肖永平强调。
肖永平建议,应借鉴医疗事故的鉴定方法,建议由法官、检察官、法学专家、仲裁员、立法工作者、律师、公证员、执法监督员、人民监督员等法律职业共同体成员组成错案责任认定委员会认定错案,并按照严格限定错案责任标准认定法官责任。
肖永平提醒,尽管法官裁判应该兼顾政治效果、法律效果和社会效果,但对“错案”的判断标准应该以明文的法律规定为根据,避免以其他效果为根据认定错案,否则会导致“错案”范围的扩大化,也可能会使裁判者无所适从。
西南政法大学校长付子堂则提醒,对于错案,要实事求是具体分析,究竟是哪个环节出了问题,“如果是公安或检察环节出现问题,那就不应该把板子打到最后法院的这一关上。”
制度预防:建法官责任豁免制度,设法官遴选和惩戒委员会
一个现实难题的解决,离不开制度设计的改良,冤假错案亦不例外。事实上,十八届四中全会亦明确要“健全冤假错案有效防范、及时纠正机制”。
为此,肖永平建议,在《法官法》或全国人大的立法解释中规定法官责任豁免制度,“赋予法官充分的职务保障,既是其职业特点的需要,更是保障法官独立行使审判权的需要。”
其实,各国法官都不同程度地享有免责权,即法官在法律规定的特定条件下,因履行司法职务的不作为或不当行为,有不被追究、不承担民事责任的权利。
肖永平说,最高人民法院发布的《违法审判责任追究办法》和《审判纪律处分办法》也规定了法官“免责”的若干情况,但该司法解释能否得到其他部门的认可和执行,是存有疑问的,容易导致错案责任追究制度的扩大化问题。
“因此,对法官责任的追究应坚持‘法有明文规定’的原则,建议由全国人大常委会对《法官法》作进一步解释或补充规定。”肖永平说。
在肖永平看来,与此同时,还应设立专门的法官遴选和惩戒委员会,专门负责法官的遴选及法官责任追究工作。
付子堂则指出,“惩”的同时,也应注意“奖”,要让那些没有办错案、比较优秀的法官得到真正可见的利益。
付子堂进一步建议,应建立法官错案信息年度备案制度和内部年度通报制度,“也就是通过制度设计,增加司法系统法院内部的透明度,使法官之间能够相互监督。”

近些年来,“人工智能”的话题持续发酵。尤其是在互联网、大数据、脑科学等新理论技术的驱动下,人工智能加速发展,呈现出深度学习、跨界融合、人机协同等新特征。相关学科发展、理论建模、技术创新正在引发链式突破,整体推动各领域从数字化、网络化向智能化加速跃升。在国务院办公厅印发的《国家信息化发展战略纲要》中,明确提出将“智慧法院”的建设列入国家信息化发展战略,过去的2016年中,“智慧法院”的相关工作部署已紧锣密鼓地推开,[1]2017年4月20日,最高人民法院印发《关于加快建设智慧法院的意见》,提出以信息化促进审判体系和审判能力现代化的总体要求。在最高人民法院的强力推动下,地方各级法院也纷纷启动了“智慧法院”的探索工作。不过一方面,虽然法院一直在试图将人工智能引入办案系统,但如何根据现有基础研究的成果,技术研发的不同特点,寻求智能系统切入司法领域的突破口,仍是司法实务界和法学研究领域尚在探索的前沿问题;另一方面,新闻舆论却又总喜欢用“机器参与司法审判”“机器人法官”[2]等字眼来概括和描述目前司法智能化工作,极易引发公众对司法裁判人工智能化这一问题的认知偏差。事实上,以现在人工智能处理司法过程问题的技术水平来看,讨论人工智能是否有取代法官裁判的可能性,并没有根据也没有必要。

法律人工智能在我国司法界的运用方兴未艾,开始初步形成了信息的电子数据化、办案辅助系统的智能化、实体裁判的预测与监督系统以及统一、电子化的证据标准等法律人工智能形式。然而,法律人工智能存在一定的现实困境。从数据层面看,当下的法律数据不充分、不真实、不客观且结构化不足。从算法层面看,法律人工智能所使用的算法隐秘且低效。从人才层面看,法律界、人工智能界互有疏离、隔阂。未来,我们应认识到法律人工智能在我国运用的长期性与艰巨性,在明确法律人工智能应定位于辅助角色的同时,在技术层面上改进算法并培养法学与计算机科学知识相融合的人才。

笔者认为有必要区分两个不同面向的问题,即裁判人工智能化的可能性,以及裁判人工智能化的必要性。这两个不同问题,其实是代表了两种不同取向的研究,即以学术研究为导向和以应用为导向的人工智能化路线。前者要证明的是人工智能可以或者可能实现法官的推理,甚至哪怕只是推理的一个片段。其目标似乎只是想看看智能技术在与法学结合的道路上能走多远,它可以是个人的、主观的;但如果我们的目标是创造出一个可操作的,具有实用价值的系统,那么仅以上述学术研究为导向的方法论可能就不够了。因为这并非纯粹是一个自由选择或是个人偏好的问题,而是需要决定哪一种技术方法可能会最大限度地贴合司法实践中的操作。法官在判案时是否真的需要人工智能的辅助?系统实际使用者的真实需求又是什么?这是一个极其复杂而困难的问题,但也应是裁判人工智能化应用研究的起点。在笔者的另一篇文章已集中讨论了机器在模拟司法裁判上的技术缺陷和问题,[3]笔者将会继续结合国家对于整个司法结构与功能的预设,来讨论人工智能切入司法裁判的需求背景以及可能出现的发展方向。

目次

一、裁判人工智能化的需求背景

一、人工智能方兴未艾的运用

“决策辅助”的先决条件

二、法律人工智能的现实困境

司法裁判是一项高度复杂的工作,无数的法学家们在这个领域倾注着脑力竞赛。在司法领域的核心词汇一般如,“正义”“合理审慎”以及“犯罪意图”等,都来自于人们的日常生活。而且,在法律推理的过程中,还涵盖了多种认知技能,如评判事实、条文解读、类比推理以及辩证思考。除了复杂性以外,司法裁判的另一特点就是其社会影响力。个案中涉及的利益、情感以及最终的裁判结果,都会影响到整个社会对司法工作人员的整体印象,以及社会对司法系统的看法。

三、中国应该如何运用法律人工智能

司法活动的这些特点表明对它的研究和应用需采取谨慎的态度。虽然已有不少人工智能的研发目标定位在“决策辅助”,即由计算机自动组织和协调多个模型的运行和存取,处理数据库中的大量数据,提高数据加工深度,从而达到辅助使用者决策活动目的。但若仔细推敲,之所以使用决策辅助,除了该系统本身技术可靠外,还应产生“决策辅助”的需求,这包括以下两个条件:

一、人工智能方兴未艾的运用

1.使用者清楚地意识到有寻求“决策辅助”的必要决策环境复杂

在Alphago战胜围棋高手李世石、柯洁之后,人工智能进一步成为当下热议的话题。正如我们所看到的那样,人工智能在人类社会活动的很多领域已开始得到较多运用,诸多互联网企业和国家对之也是高度关注。[1]在此背景下,中外学界开始讨论、探索人工智能在法律领域中的运用问题。

因专业知识不足等多种原因难以形成决策。

据BBC报道,一种名叫Case Cruncher
Alpha的法律人工智能“机器律师”与伦敦的100名律师就“基于数百个PPI错误销售案例事实来判断索赔与否”的法律问题展开比赛,结果“机器律师”法律AI以86.6%的准确率领先于律师的66.3%。[2]弗吉利亚理工大学发现分析中心的学者通过数据驱动结构的机器学习分析了美国最高法院以往做出的裁判,并以此预测未来的判决。其AI通过对裁判文本的仔细分析,计算每个在裁判中出现的与争点相关的语词,并权衡其在争点中的权重,进而透视每个大法官对争点关注的强弱程度,再结合大法官的投票行为,挖掘文字表述的实际意义。最终,AI不仅能够更好地发现不同大法官的裁判立场与观点,预测其未来投票趋势,还可以更清楚地表明谁是裁判决策中的摇摆者与妥协者,甚至大法官们在哪些问题上更容易妥协也一清二楚。基于此,AI可以预测最高法院未来的裁判,其准确率达到了79.46%。[3]此外,美国芝加哥的伊利诺理工大学与南德克萨斯法学院利用1791至2015年的美国最高法院数据库,合作开发了一种算法,该算法再现了从1816年到2015年美国最高法院法官的28000项决定和240000次投票,正确率分别达到70.2%和71.9%,这高于法学家们66%的预测准确率。[4]Lex
Machina公司在知识产权法律领域也通过人工智能预测裁判结果。[5]有国外学者甚至认为,人工智能在预测案件判决结果上已经超越了人类专家。[6]

2.使用者有从该“决策辅助”系统获取信息支持的强烈动因其实日常生活中的多数情况下,我们都在不断地决策,但真正需要寻求决策辅助情形并不多见。例如,我们都有过因出门担心下雨而犹豫是否需要带伞的经历,在自己没有专业气象知识,无法通过观测天象来预测的前提下,便会寻求天气预报的帮助以辅助决策。但请注意,这只是“决策辅助”存在的必要条件。因为假如我们选择开车出行,且上下车的过程都可以排除下雨的干扰,那么即使今天真的会下雨,我们也不太会关心天气预报中预测下雨概率的准确性,此为上述的动因条件。

上述事例显示,在域外,随着人工智能与大数据时代的到来,法学家与其他领域的人士已开始探讨如何将人工智能运用于法律裁判领域,但这其实并不新鲜,计算机甫一普及,美国法学界就开始讨论法律推理与思维是否可被机器所取代的问题。[7]澳门新葡亰赌全部网址,20世纪70年代,Anthony
D.Amato提出,人类法官是否以及应该被机器法官所取代,以消除法律的不确定性。[8]但这一设想是否正确以及可行在美国学术界一直争论不休,有时还被上升至哲学层面讨论。如J.C
Smith指出,“电脑可以/应该更换法官”的见解是基于笛卡尔的“灵体二元论”和“莱布尼茨的谬误”,二者犯了智力可以独立于人体而存在和所有的人类思想都可以通过一种通用的语言来表达的错误。[9]

法官判案是否需要“决策辅助”

值得注意的是,目前法律界对人工智能的运用已不再局限于对裁判的预测,在其他领域也能看见其活跃的身影。汤森路透公司已将IBM的认知计算系统——Watson系统用于法学学术研究,Ross
Intelligence亦将IBM
Watson的Q&A技术运用到破产法律的研究中,通过对法律文件的学习,其能自行识别出法律信息的重要程度,从而提高了律师案例检索的效率。[10]在一般的法律服务与活动领域,人工智能更是显示出了自身的巨大优势。在民事法律领域,很多公司已开始运用人工智能审查合同,如摩根大通开发出的商业贷款合同审查系统几秒钟就能完成曾经需要用36万小时才能完成的信贷审查工作[11]。在刑事法律领域,人工智能主要运用于一般的警务活动、羁押必要性审查以及量刑后假释等活动中。在警务活动方面,加州圣克鲁斯大数据创新企业Predpol所研发的犯罪预测软件,能够通过对犯罪历史数据的分析,逐个小时计算出哪里最可能发生犯罪活动。从理论上来说,警方只需经常在这些地区进行巡逻就可以提前阻止犯罪,圣克鲁斯、洛杉矶和亚特兰大等使用该软件的城市都降低了犯罪率。[12]在保释与假释决定中,美国一些州法庭使用算法来确定被告的“风险程度”:从这个人会再次犯罪的可能性,到被告会如期出庭的可能性等各个因素,进而决定是否对其保释或假释。[13]此外,法律人工智能还被用于法庭量刑,如美国的一些州正在使用“风险评估工具”(Correctional
Offender Management Profiling for Alternative Sanctions, or
COMPAS)来确定刑期。[14]这种“风险评估工具”是在参考了数十年的量刑案例后所设计的一种算法,该算法结合了十几个参数,进而转化为被告在一定时期内重新犯罪的可能性。[15]现在,“法官正使用这些法律人工智能量刑系统帮助他们作出量刑决定,尽管法官仍保有其自由裁量权,但这种法律人工智能系统对实际量刑决策的影响正在扩大”。[16]

我们同样可以通过这两个条件来观察人工智能“辅助决策系统”在司法裁判领域的境地。对于第一个条件,司法裁判中的确会产生复杂的环境,而且作为解决社会纠纷主体的司法裁判,往往也不可避免地会成为社会舆论的焦点。不过需要思考的是,究竟是什么原因使法官难以形成决策,是因为专业知识的不足,还是其他的原因?如果以计算机系统取代或辅助法官决策,能否解决上述问题?

面对法律人工智能的迅猛发展与广泛运用,域外理论界出现了两种明显存在分野的观点。部分学者对法律人工智能的使用前景持相对乐观的态度,认为法律人工智能在当下与未来将获得更广泛的使用,但这取决于算法的进一步优化、计算机硬件的进一步提升以及更为物美价廉的法律人工智能服务的出现。[17]还有部分学者则没有这么乐观,反而在他们看来,由于目前能够获取的数据可能并不可靠、算法标准模糊且未达到公开透明程度,盲目信任法律人工智能会产生如隐性歧视等新问题、新冲突。[18]近日,一起由美国威斯康星州法院使用COMPAS系统智能量刑的案件裁判结果在美国社会引发了激烈的讨论,其中的算法歧视问题引人深思。在威斯康星州诉卢米斯一案(Wisconsin
v.Loomis)中,被告埃里克·卢米斯(Eric
Loomis)因偷窃枪击者抛弃的汽车而被警察误当作枪击者予以逮捕,鉴于其存在偷盗和拒捕行为,卢米斯最终被判有罪并服刑6年,这是因为COMPAS系统通过对卢米斯回答的一系列问题的测算,将其危险等级认定为“高风险”。卢米斯提起上诉,但威斯康星州最高法院支持了下级法院的裁决,认为COMPAS系统的算法具有中立性和客观性。[19]2017年6月,美国联邦最高法院拒绝受理卢米斯的申诉要求,实际上维持了威斯康星州法院支持原判决有效的裁决。[20]

一般说来,法官在形成决策前,大致会经历下列4个步骤的过程:确定裁判的目标;罗列可实现目标的裁判方法;对可能采取的每一种裁判方法的后果加以评估;作出最能实现目标的选择。其中第一和第三个步骤,往往是司法工作中的实践难题,也是法官最需要寻求决策支持的,但也恰是人工智能“决策辅助系统”最难介入的部分。很多案件之所以难以决策,并非仅仅是因为法律上的疑难,还可能包括社会影响大、公众关注度高、当事人请托关系、领导批示或者“胡搅蛮缠”以上访相威胁等,即案件的困难虽然并非源于法律本身的理解与适用,但仍然会成为实际办案法官眼中的“疑难案件”。

那么,在中国,法律人工智能又呈现出何种景象,社会各界对其前景抱以怎样的希冀呢?

以“泸州继承案”“许霆案”等民意案件为例,若从阿列克西关于“内部证成”的观点来看,法院的判决都具有充分的事实依据和法律依据,没有明显的迹象表明法院的审判过程和判决结果出现了差错。但在法院外部,人们质疑法院判决的理由明显超出了现行法律制度的约束范围:当人们需要对司法裁判评头论足的时候,往往会借助于一个“更高”的标准,这些标准经常会化身为一些“法理原理”,如“公序良俗”“公共利益”等。以“道德”的名义宣称判决违背法理,不符合法的道德品性等论调,突出显示阿列克西的“外部证成”的性质。这种话语体系在不断质疑和责问法院工作和司法制度的过程中展现出强大威力,使得人民群众对法院的信任度以及法院的满意度也随之降低,同时也使得法官越发难以形成决策。对于此类社会关注度大的案件,如何界定“社会效果”便是法官在形成裁判之前所要面对的一个难题。[4]“社会效果”的评价体系有着许多概念上的困难:“一是哪些是社会效果——范围不确定导致法律效力规则多极化。二是谁来评价社会效果——主体不确定导致司法四面招架。三是如何比较两个社会效果的轻重缓急——标准不确定导致人为操作裁判。四是社会效果和法律效果冲突时如何取舍——取舍原则不确定导致法律妥协。”[5]正因为评判案件的标准是一个相对开放的领域,因此法官才不得不相当多地依赖其他非法律的材料和信息。

从理论界来看,法律人工智能受到了广泛关注,并展开了初步研究与讨论,其大致可分为以下几类:一是关注人工智能作为新兴工具对既有法学理论所带来的问题与挑战。《法律科学》在2017年第5期集中刊发的五篇与法律人工智能相关的问题所讨论的主题,就是这种研究路向的典型代表。[21]值得注意的是,郑戈还展望了人工智能与法律的未来,认为“‘现代’法律体系能否成功应对人工智能所带来的新的风险和不确定性,能否在人工智能时代继续维持秩序与变革、守护与创新、价值与事实之间的动态平衡,这是今天的法律人所必须面对的紧迫问题”。[22]二是分析人工智能运用中所产生的信息公开和透明化问题。例如,胡凌对法律是否以及如何介入人工智能算法的运作,特别是在广泛影响大众利益的情形中,如何设计信息披露等监管机制、干预某类代码化规则的系统性歧视等展开了讨论。[23]三是讨论人工智能在法律领域的运用,尤其是有关中国智慧法院建设的问题。例如,吴习彧认为,人工智能难以胜任知识覆盖面大、技术含量高的司法工作,更可行的做法应是一种人机结合的司法裁判智能化辅助系统。[24]何帆则认为,现在谈机器人法官是无稽之谈,法官“需要的智慧和智能,第一要务还是辅助和服务法官办案,而不是替代司法裁决、淘汰办案法官。”[25]此外,还有学者从司法权特点的角度反思了智慧法院的建设,认为“工具理性对司法意义的消解,智慧管理对司法自主的削弱,智慧应用对司法平等的分化以及服务外包对司法公信的威胁,是智慧法院存在的法理困境”。[26]

当裁判目标不确定以及裁判结果评价标准模糊的情况下,法官面对的问题是裁判的成本和风险极大化困境:一方面,法官需要提前进行大量的思考,对信息进行筛选和评估;另一方面,在裁判作出后,所有的结果便转化为依附于法官个人身上的高强度压力。也就是说,法官决策前后负担都很高。而这种决策模式的特点就是极不稳定,除非决策成本的产生实际上是有意义的,并且决策最后会以很好的方式结尾,否则这种模式下的个体或机构就非常容易崩溃。[6]

概括而言,理论界有关法律人工智能的研究虽然热闹,但仍处于开拓阶段,尚缺乏对法律人工智能运用现状与未来的深刻把握与思考,至于所提出的关于法律人工智能如何运用的建议,也只是方向性的。

寻求决策辅助的途径

相较于理论界,实务界对法律人工智能可能有着更多的期待,并采取很多实际行动。

当法官意识到存在决策困难或风险之后,接下来问题便是如何寻求决策辅助。由于涉及决策责任的最终承担,故寻求决策辅助的方式和途径也是值得仔细考虑的。只有对法官裁判行为背后隐蔽的秩序力量保持足够敏锐,准确地理解法官“在A与B两种行为选择之间的偏好,了解这些偏好究竟植根于何处”,[7]才不至于在探讨人工智能究竟能为法官决策提供何种辅助的问题上毫无头绪。

在政策层面,国务院发布于2017年7月《新一代人工智能发展规划》,确立了我国新一代人工智能发展“三步走”战略目标,力争到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心;[27]最高人民法院与最高人民检察院提出了“智慧法院”与“智慧检务”建设的行动规划;[28]公安部与司法部也有类似大数据与信息化建设的指南。[29]因应于此,地方司法机关尤其法院的人工智能与“智慧法院”建设方兴未艾,北京、上海、浙江、江苏、广东、贵州等均推出了名称不同的人工智能法律工具,如北京法院的“睿法官”智能研判系统、上海法院的“206”刑事案件智能辅助办案系统,苏州法院还形成了“智慧审判苏州模式”。纵观当前实践,法院系统在“智慧法院”建设中所使用的人工智能主要有以下几种形式:

一份法院判决不仅是承办法官依据显性规则裁判的结果,同时也是其依据非正式隐性规则裁判的结果,而后者从来就不会明文写入判决的依据之中。[8]所以对于期望对裁判过程提供智能化辅助的研究来说,就有必要先辨识办案法官个人在某个具体案件情境中和法院系统层级中的能力范围,并试图理解该情境和系统会如何对其个人产生影响。社会心理学的大量资料能佐证,在特定情境下,来自外界的系统性力量会远远胜于法官个体本身的努力,并且这种系统所展现出来的情境力量,左右个体行为方式的能力远超出我们所想。很多时候,我们只是简单地把某些错案件中的法官追责定性为“失职”或“贪污、腐败”,却会忽略让这些法官办“错”案背后的更大动力,一种由更复杂、更强大的动力所创造出来的情境性力量。

一是信息的电子化、数据化,即通过技术手段,将语音、纸质化卷宗文字等非电子化信息转换为可复制、可转换的电子数据,从而减轻司法机关的工作负担,为进一步应用打下基础。例如,最高人民法院、上海高院、广州中院、苏州中院等超过100家法院就应用了科大讯飞公司所研发的智慧法院庭审系统。又如,最高人民法院委托苏州中院研发的庭审语音识别系统,可以将语音自动转化为文字,并能自动区分庭审发言对象及发言内容,法官、当事人和其他参与人均能实时看见转录文字。[30]在系统试用中,语音识别正确率已达到90%以上,书记员只需进行少量修改即可实现庭审的完整记录。经对比测试,庭审时间平均缩短20%~30%,复杂庭审时间缩短超过50%,庭审笔录的完整度达到100%。[31]

当法官意识到决策风险的存在时,便可能会开始转化到另一种特殊的思考方式:尽量避免犯错,努力使其作出选择时的负担以及犯错误的可能性最小化。“司法者和任何公职人员一样,乐于使用最方便的程序处理事务。在有法条或成例可循的情形下,故意另寻蹊径为其判决另找依据,不仅自找麻烦,而且可能导致上控,使自己受到责难。”[9]

二是办案辅助系统的智能化,即指通过智能化手段,实现裁判文书中如“当事人信息”、“诉讼请求”等固定格式内容的一键生成,缩短起草文书时间,辅助法官提高办案质效。[32]例如河北高院历时近一年组织研发了“智慧审判支持”系统,帮助法官对电子卷宗进行文档化编辑,并按法律要素实现结构化管理,自动引用、排列、归纳和分析全要素案件数据,辅助法官完成文书的撰写。在河北194个法院,有6961名法官应用,截至2017年5月31日,共处理案件11.1万件,辅助生成78.4万份文书。[33]

常见的处理决策负担方式便是委托,将该决定委托其他人去处理。例如日常生活中,人们可能会依靠配偶或朋友来代替他们决策,或挑选一个制度化的安排,通过该制度安排,其中的某些决定就可以由此前已经设立好的机构作出。委托是一种能够减轻委托人在作最后决策之前所承受负担的一种策略。当然这种减轻是通过将负担转移到委托人身上来达到目的。而对于委托人来说,或拥有特别的信息,或缺乏相关的偏见或动机方面的问题,又或者他们不介意对拟议中的决策承担责任。

三是实体裁判的预测与监督。预测指的是人工智能系统对海量裁判文书进行情节特征的自动提取和判决结果的智能学习,建立具体案件裁判模型,根据法官点选的关键词或提供的事实、情节,自动统计、实时展示同类案件裁判情况,预测正在审理案件的实体裁判,同时推送更为精准的相似案例,供法官参考。北京法院的“睿法官”系统便是依托北京三级法院统一的审判信息资源库,运用大数据与云计算充分挖掘分析数据资源,并依托法律规则库和语义分析模型,在法官办案过程中自动推送案情分析、法律条款、相似案例、判决参考等信息,为法官判案提供统一、全面的审理规范和办案指引。[34]所谓监督,是指对于“同判度”较高的类案,基于预测性判断,对法官制作的裁判文书判决结果与之发生的重大偏离,系统自动预警,从而防止裁判尺度出现重大偏离。如苏州法院的人工智能系统不仅能够统计类案的裁判模式与结果,还能对当下案件根据历史裁判模型模拟裁判,如果法官制作的裁判文书判决结果与之发生重大偏离,系统予以自动预警,方便院庭长行使审判监督管理职权。[35]

但什么时候委托,以及委托给谁,是需要斟酌的问题。因为如果委托决策的对象是一个值得“信赖”的受托人或受托机构时,那么委托行为就几乎没有什么压力,甚至可以给最后的决策带来自信。但如果受托人和委托人存在某种牵连关系,甚至被证明是倾向于犯错误的,那么其他的策略化行为就会取而代之。

四是建立统一的、电子化的证据标准,即通过法律大数据总结案件办理经验,并将其内嵌于公检法三机关的数据化办案系统中,用以规范公、检、法机关与人员的司法行为。[36]

实践中回避决策风险的一种典型方式便是“请示”。[10]“因为一个人在一个群体中争取获得承认的努力大部分是由该群体中高度受尊敬的成员的赞同而得以推动的。因为他们对于他的赞同意见影响了其他人的意见,因而具有一种增值作用。”[11]虽然在现行的宪法、人民法院组织法和三大诉讼法中,都只规定了上级法院对下级法院的监督权,但作为司法实践中“土生土长”的习惯工作方式却因此享有滋生的土壤。[12]法官遇到“拿不准”的问题时,就会向审判长以及合议庭其他法官汇报,包括向副庭长或庭长以及庭务会请示。当在业务庭一级不能“拿捏”时,案件就会向副院长或院长汇报,进而纳入到审判委员会集体讨论。[13]有些问题审判委员会也讨论不出结果,或者虽有结论,但为慎重起见,会向上级法院请示汇报。

例如,上海公检法机关从统一证据标准、制定证据规则、构建证据模型入手构建的刑事案件智能辅助办案系统。[37]由于类似办案系统的目的在于规范司法行为,似乎还不能算是完全的法律人工智能。

相应地,法官向“决策辅助系统”寻求信息支持的动力不大的关键原因也就在于,“决策辅助系统”其实并没有帮助法官脱离责任承担的主体范围,法官也不可能通过主张自己是使用了“决策辅助系统”而免除将来可能要承担的裁判风险。

二、人工智能与司法裁量权

司法裁判人工智能化另一个值得斟酌的主题是与司法裁判裁量权的对接。该主题的问题又可以细化为两个小问题:计算机程序要求简单化、明晰化的设计属性与法官的裁量权如何协调;使用计算机程序规范法官的裁量权是否合适。

计算机程序与法官裁量权的对接问题

目前已有的研究正在考虑根据计算机模型对法院的某些程序进行标准化。[14]此类研究的主要目的是通过计算机设计程序以方便法院实施一些更加快速、经济的管理流程。其基本理念是:让计算机程序与实际流程对接,从而使计算机根据司法流程创建、实施程序。只需在个案中输入一些数据,就可以得出结果。不过迄今取得的经验显示,以这个角度研究司法程序人工智能运作的问题还相对突出,研究的推进其实遇到了瓶颈。

其中的瓶颈在于,在计算机的程序设计中不宜带入过多的裁量内容,或不应将其放在系统的核心地位。[15]因为从程序的可管理性要求出发,需要所设计的程序简单,且可以被反复试用,不能携带太多的变量。简单、重复度高以及使用频繁的程序在行政领域、私人组织以及公共机构等几个领域都很容易找到,如地铁、火车进站前的票据真伪查验,或者停车场的计时收费等。这些程序中由于需要考虑的步骤数量少,中间的自由裁量空间不大,因而就容易把这些流程以智能化的方式代替。换句话说,在这种情况下适用计算机程序是最为有效且合适的。

而当程序中出现裁量空间的时候,就必须对可能出现的替代性选择作出排列:在一个给定的选择节点上,一个程序可以在不同程序路径上运行。那么就有必要提前知道,会出现哪些可以被执行的路径,以便提前将其嵌入程序中。如果在程序中,类似的选择只有两三个,甚至几乎没有“选择点”,程序会运转得更好;相反,如果“选择点”保持“开放”状态,那么每个“开放”的节点就意味着系统效率的低下,因为它需要使用者的亲自介入来考量自己的特别需求。因此,必须事先定义每个选择点和所有可供选择的替代方案,以便使所考虑的程序完全形式化。

在司法领域中虽然也存在简单、重复和频繁的情形,但不幸的是——他们既不是最常见的,也非“正常”的部分。在多数的司法案件中,即便是简单的案件,想要实现这样的标准化也是非常困难或不可能的。因为案件的简单与否并非是先验的,而是取决于法律对于该司法程序的价值设定。例如,债务清偿可以非常简单,也可能非常复杂,这取决于裁判者的倾向是考虑债权人的满意程度还是债务人的权利救济与保障。

当我们考虑司法程序中的这些问题时,可以得出这样的结论:标准化的软件程序可能可以适用于司法程序,但它只能覆盖一些狭小的司法领域。大致说来,这主要指一些更类似于官僚层级化中使用的程序。但在绝大多数民事或刑事案件,尤其是裁判过程,不能通过简单和标准化的计算机程序来处理,这是目前人工智能技术还不能企及的高度。

计算机程序对法官裁量权的规范问题

目前人工智能的另一些重要应用是试图对司法裁量权进行合理化约束。[16]在这个方面值得注意和反思的问题是以合理化裁量权的名义,来缩减或消除法官的裁量权。因为缩减或消除法官的裁量权已不仅是人工智能应用的技术问题,它本质上是一个司法政策的问题:在一个给定的法律制度之下,授予法官多大的裁量权才应该被信任?

如果需要通过人工智能技术规范法官的裁量,就应该注意区分两种不同的裁量权:强裁量权和弱裁量权。[17]强自由裁量权意味着法官可以在相当宽泛的范围内进行权衡选择,并只需考虑个案的特殊性,典型的如对案件的定性、对证据证明力的判断等。强裁量权很难被事先合理化安排,只能通过事后的证明说理。弱自由裁量权意味着法官虽然可以相对自由地选择,但要受制于先前已有的选择,或者必须在预先设定的最大和最小范围内,或者应根据某种标准和原则进行裁判。

区分不同种类的自由裁量权区别很有必要。对此应该认识到,强性的自由裁量权其实很难通过逻辑工具或框架来使之合理化。事实上,这种自由裁量权的基本特征,就是法官有权通过关注案件的相关特征,并以完全自由选择的方式去为决定寻找前提或标准,决定每一个具体的案件。这种选择不能也很难被事先合理化,更多地只能是事后证明。法官可以通过说明使用的标准和规范,以及基于强性的自由裁量权所参考的案件特点,对决定作出事后论证;或可以证明,鉴于案件的某些有关情况和一些评价标准,其根据其前提所作的决定是合理和有效的;甚至可以通过将它们适用于更高级别的选择规范,来给这些前提进行一个外部证成,并且给出理由证明为什么考虑了案件中与其决定相关的一些特征。然而,上述这些并不是一个先验合理化的决策过程,而仅仅是一个事后合理化的决定。

当涉及弱性自由裁量权时,对于自由裁量选择的事前合理化似乎才有了更大的空间。以先前存在的标准和规则,决定事前司法裁量权的边界。换句话说,有一套要遵循的处方,或者一组可供选择的方案,由它们确定作出裁量性决定的语境。如在涉及刑事裁判量刑时,每种犯罪类型都有相应的最高或者最低刑期,或者规定可以被提及一些因素,法官可以据此来确定某个特定案件中刑事制裁程度。此类“详目表”会被用来作为规范法官裁量权的一种手段。如果所有相关标准都结合在一个精确复杂的分析规则中,且标准被更好更详细地定义,那么便可以产生更详细的分类,根据每一个案例可以找到合适的归档,就可以确定“适当”的量刑。

如果不可避免地需要使用以人工智能的方式来合理化法官的裁量,那么至少在法官作出个案的决定之前,需要有一些相当精细化的选择:建立复杂的标准和原则集合,并进行细致定义子集进行分类。这些集合假设是以明确地或隐含地,通过法律或逻辑,通过条文或实践的形式进行展现,或多或少都有广泛的备选方案可供法官选择。其中心内容是,法官将选择其中一种替代办法,在某种情况下理论上任何案件都应在一致和有组织的情况下找到自己适当的“归档”,从而得到自己的合理结果。这也许是一个使法官裁判合理化的功能性方法,且在理论上可行。法官需要做的只是按图索骥地找对合适的文件柜,而在文件柜的抽屉里写着小纸条“判三个月”或“判十年”。这或许是最大限度地合理化法官自由裁量权的方式。然而进一步的问题是,当该系统倾向于产生极其复杂的组合时,为了被归类或者联系到一个典型的情形时,个别情况就必须被视为“类似”并对应于某一种类型。在法官判定案件是否与另一案件类似或案件是否与某一类型相符时,其实还是会使用到上述的强裁量权。

人工智能化的方法确实可以减少或者消除实践中裁判的模糊性以及标准的不确定性,因为它增加了裁判的统一性和预见性,相应地降低或消灭了主观性、不确定性。但我们只是可以承认,如果从假设裁判的统一性价值应取代个案评估重要性的角度来看,这种减少或消除的做法可能甚至可以被视作是司法裁判领域的一个正向改变,然而真正的危险是这可能消除了法官的裁量权,而不是使其合理化。

三、人工智能的另一个面向:“智能化”的管理者其实在法院的口径中,似乎从未提出过让机器来代替法官办案的设想或计划。那么人工智能究竟会以什么样的方式嵌入到中国的司法实践中去呢?值得注意的是另一种面孔的存在:作为管理者的“智能化”。它与前述问题的区别在于,裁判的人工智能化是指由机器来辅助法官进行决策,是从法官角度出发而进行的研发工作;而管理的智能化,是从纵向管理角度出发的研发,虽然也有机器的参与,但机器其实并不参与决策,而是类似于“数字目”的统计、管理角色定位。[18]

科层结构喜欢以书面的文档为根据来作出决策。[19]因为整个系统追求秩序井然和确定性的偏好需要有一种机制,把每一个分散的程序步骤和记录汇总为一个有意义[20]的整体。不同级别、身份的公职人员将不同渠道搜集到的各种材料汇集起来供决策之用,所有记录都应当被保留起来以备将来的复核、追责。因此,智能化其实很好地贴合了这种需求,负责各个程序步骤的官员都可以通过该系统上传所有的文件,确保文档的完整性和真实性。整个系统充当着汇集信息和沿路作出的决策的储存库。这就像河道,智能化开辟了一条人工的河道,处于上下游的经办人员通过“河道”便能将文件整合到一起,将这些证据在裁判之前呈现给各个部门进行检验,并向最终的审理者提交。通过这种安排,最终的裁判者通过一个循序渐进的过程慢慢介入到证据展示过程中,证据也可以得到更冷静的评估。从这个意义上来看,整个系统完成的并非是裁判工作,而是整个司法流程的管理。

不过,智能化的系统虽然可以为裁判和复核提供基础信息的来源载体,但问题是哪些信息应该或可以被提取进“河道”内,即信息的筛选与提取方式。这时信息的全面性与精准性会产生矛盾:一方面,各个“河道口”的经办人员需要尽可能详细地将自己掌握的信息通过系统提交上去,为上游的决策提供;但另一方面,如果仅仅只是将所有的案卷材料扫描一下,然后事无巨细地上传至系统,也会带来信息杂乱的问题。[21]一份完整的讯问笔录或者讯问视频虽然信息量很全面,但是进入到系统中却没有意义。这是因为每个案件的处理时间有限,裁判者在进行决策和复核的过程中不可能有太多时间和精力潜入到个案细节之中。

因此,进入到系统中的信息必须是简洁性和概括性的。所以,就需要作权衡工作,对信息进行筛选工作,一套筛选标准和顺序要目的罗列是不可避免的。很显然,以“简单与复杂”案件或者“重要或非重要”,这种模糊性的“意义的逻辑阐述”方法来进行区分是不可行的,因为结果导向式的评价方式,定义标准的开放性使其不具备操作性。有必要将案件按照某种相似性标准进行井然有序的编排,这种相似性的标准是一种“外部特征性”的描述。

如在上海市高级法院研发的系统中所采取的办法是,根据不同的案件类型,分别详细规定了收集程序、规格标准、审查判断要点。“由于工作角度不同,公检法在实际办案中对这个标准的理解往往会存在差异。因此首先要解决的问题,就是,如何按照法律规定解决证据标准适用统一问题……证据标准是指在诉讼中据以认定案件事实的证据要求和证明程度,事实清楚、证据确实充分是一个总的标准,具体到每个罪名,还需要进行细化。为此……选择了7类18个具体罪名,逐项制定证据标准,目前已初步完成故意杀人罪、盗窃罪等7个罪名的证据标准制定工作。”[22]

但值得注意的是,类似的提取方式有可能会弱化公、检、法之间的相互监督关系,因为所有的事实提取方法都是按照标准化的模式进行采集、浓缩,裁判模式将会扁平化,裁判者会事先研究系统中提取的案件要素,对庭审过程中的证人质证等将会趋于公事化程序。也就是说,最后的庭审工作只是对系统中所提取的案件要素的真实性和是否符合标准的审核,而非对案件事实本身的再发现。此外,这样一套筛选标准还可能会对裁判者的个人经验造成压制。因为决策者本人的个体风格和对案件的理解被简化拆分为一个个并不直接关联的要素时,意味着决策的过程将不再主要依靠厚重的、直接的经验,而是基于某种固定的逻辑,但某些独特并不一定符合筛选标准的细节却已经在前置程序中被过滤。

四、结语

正如笔者所强调的,裁判的人工智能化研究还处于起步阶段,想要建立一个完整的人工智能化司法决策理论的目的还远远没有实现。虽然,近代法律文化中产生过许多不同的司法决策理论,这些传统理论的缺陷之一是,他们认为只是通过使用非常简单和粗略的工具便可以推断解释极端复杂的现象。在人工智能的主题研究历程中已有一些逻辑模型最终被证明是不成功和不可靠的,如三段论模型便是最重要的牺牲品。因为这些模型一直未曾对法官怎样裁判以及论证其判决的过程作出完整的解释。从另一个角度来说,司法裁判无法计算机化的“失败经历”也可以表明这样一个事实,司法推理是开放性的逻辑和理性分析,它也许不能用单一的逻辑结构来解释。法官的推理也不能被降格为简单的、可重复的、固定的、先决的以及包罗万象的逻辑模型。如果研究人员一直想要在推理性和非理性之间划出一条明显严格的分界线,可能是个误导性的做法。

真正的问题仍然在于以实证态度关注我们的司法裁判经验,探索中国式裁判智能化的积极尝试,关注和研究人工智能在司法过程中多样化的策略使用及其合理性,不能简单地为了“智能”而“智能”。如果不了解法官们在做些什么和他们需要些什么,刻意地简化司法程序,将形式化的框架强加于程序和知识之上,会使得裁判工作中真正核心因素的重要性被忽视,从而导致不准确的或不适当的决定。

本文来源:北大法律信息网

本文作者:吴习彧

[ 注释 ]

本文是司法部国家法治与法学理论研究项目、教育部人文社科项目、浙江省哲学社会科学规划项目和浙江省社会科学界联合会重点课题的阶段性研究成果。[1]2016年2月25日最高人民法院院长周强在最高院信息化专题讲座上清晰地提出“智慧法院”宏伟蓝图,发布了人民法院信息化3.0版的建设规划;2016年11月在浙江乌镇召开的第三届世界互联网大会上,最高院牵头组织了“智慧法院暨网络法治论坛”,周强等最高法院的主要负责人以及北京、浙江、上海、江苏、河北等省市的高级法院院长出席论坛并作主题发言,发布了《乌镇共识》。[2]2016年12月30日,某新闻网刊发题为《南京法院拟引入机器人辅助判案:“阿尔法”是替身还是帮工?》的报道称,南京市中级法院决定于2017年引入智能机器人,“以提高办案质量和办案效率”:法官输入案由、情节等案件事实,机器人自动弹出适用法条,并显示量刑建议。在法官确认后,判决书便“一键生成”。这则带有宣传甚至广告色彩的报道,迅速引发公众关于“机器人替代法官”的担忧。南京中级法院随后发文指称该报道失实,并澄清该院未引入有关机器人项目。_forward_1590536,2017年7月29日。[3]参见吴习彧:《司法裁判人工智能化的可能性及问题》,《浙江社会科学》2017年第4期。[4]自2013年以来,在最高法院报告中已不再使用“社会效果”字眼,并强调“在法律之内寻求社会效果”,虽然反映出最高法院对其司法政策的反思与修正,但这些问题必然还会在司法实践中存在,如何将政策判断问题转化为一种可言说、可论证、可检验的司法技术问题,仍然有待于中国特色审判经验的积极尝试。[5]参见袁承东在关于“坚持法律效果与社会效果有机统一,切实履行司法工作职能”一文中所提出的几个疑问。_author,
2017年7月29日。[6]这是孙斯坦在对次级决策研究模式的分析结果之一,参见Cass
R. Sunstein and Edna Ullmann-Margalit, Second-order decisions, in
Behavioral Law and Economics。[7]参见Amos Tversky, Shmuel Sattash, and
Paul Slovic, Contingent Weighting in Judgment and Choice, 95 Psychol.
Rev.371。
p186.[8]钱卫清:《法官决策论——影响司法过程的力量》,北京大学出版社2008年版,第5页。[9]参见张伟仁:《中国传统的司法和法学》,《现代法学》2006年第5期。[10]清末,正当中国法制变革之际,有人指出了传统司法体制的弊端之一即为“层层节制,顾忌良多,未免曲徇人情,无独立不挠之志。”参见《御史吴钫奏请厘定外省官制请将行政司法严定区别折》,《清末筹备立宪档案史料》,中华书局1979年版,第823页。任喜荣教授说所谓“顾忌良多”、“曲徇人情”、“无独立不挠之志”,不过意味着上下级之间因循苟且,以至互相包庇,最终造成整个社会的司法黑暗。从法官个人的角度看,要避免司法风险,是否提高个人的道德修养并不重要,重要的是在掌握基本的法律知识的前提下,加强与上下级之间的沟通以及了解辖区的风土人情。参见任喜荣:《刑官的世界——中国法律人职业的历史透视》,法律出版社2007年第1版。[11]有一项研究表明,上层人物的建议,甚至是不正确的建议,能够以不成比例的数字被接受,而下层人物的建议,甚至是正确的建议,也会以不成比例的数字被否定。参见[美]E·保尔·托伦斯:《权力差异对三人群体的长期和短期决策的某些影响》,收录于[美]A·保尔·海尔、爱德加·F·博加塔和罗伯特·F·贝尔斯编的《小群体》一书中,美国诺普夫出版社公司1955年版,第482—492页。[12]因为案件的发回重审、改判率一直是衡量一名法官办案水平和能力的主要指标,为了减少办“错案”的几率,下级法院不得不通过请示汇报来与上级法院保持“步调一致”。[13]钱卫清:《法官决策论——影响司法过程的力量》,北京大学出版社2008年版,第35页。[14]Michele
Taruffo, Judicial Decisions and Artificial Intelligence, Artificial
Intelligence and Law 6:311—324, 1998.[15]Philip Leith, The Judge and
the Computer: How Best DecisionSupport?,Artificial Intelligence and Law
6:289—309,
1998.[16]这块领域主要表现为“同案同判预警系统”,在江苏省高级法院与东南大学合作的“人民法院司法大数据研究基地”,把同案同判预警系统作为主要开发研究的方向之一。其主要设计思路是期望通过人工智能技术对数据库中的裁判文书进行深度分析,形成预测模型,再将新判决的结果与预测模型结果进行比对,从而计算出新判决案件的“偏离度”,进而给法官裁判提供智能辅助。_129294865.htm
,2017年7月30日。[17]关于强弱裁量权的分类及阐述,参见Michele Taruffo,
Judicial Decisions and Artificial Intelligence, Artificial Intelligence
andLaw 6:311—324,
1998。[18]这方面的研发工作代表如上海市高级法院开发的“上海刑事案件智能辅助办案系统”。这套系统目的在于统一公检法三机关的证据标准适用。“智能办案系统除了让我们的办案活动数据化、智能化之外,还通过留痕的方式使之可视化,如果无视这些瑕疵选择通过,那么下次追责的时候就无处遁形了。”。参见:,
2017年8月2日。[19][美]米尔伊安·R.达玛什卡:《司法和国家权力的多种面孔——比较视野中的法律程序》,郑戈译,中国政法大学出版社2007年版,第76页。[20]当然,意义的本身来自于体制的设定。[21]以中国裁判文书网为例,目前文书的上传总量已超过3000万篇,虽然互联网可以使裁判者快速地检索到案件,但是“检索到”并不意味着对裁判者有意义。根据该网显示,文书总量为30278657篇,日均新增文书近6万篇。,2017年6月26日。[22]参见:,
2017年8月3日。

发表评论

Your Comments

近期评论

    功能


    网站地图xml地图