人工智能辅助法官量刑 诸多难题亟需解决

2019-05-14 10:56已围观

(实习记者 陈浩 记者 王梦遥)近几年来,人工智能被引入司法领域,用以提高办案效率、解决“案多人少”难题。与此同时,隐忧也随之而来:法律活动中包含的价值判断如何通过机器量化?人工智能会取代法官吗?不止在中国,人工智能在国外的诉讼流程中也得到了大量运用。美国哥伦比亚大学法学院教授李本表示,人工智能在美国刑事诉讼程序中使用颇多,但也因准确率不高、算法不透明、违反正当程序等问题面临诸多质疑。

在清华大学法学院日前举行的首届“清华—哥伦比亚网络法论坛”上,哥伦比亚大学法学院教授李本(Benjamin L. Liebman)作了主题的发言,并提到了上述观点。

财新此前报道,2013年下半年中国裁判文书网开通,全国法院的裁判文书陆续上网公布,成为可供机器学习的公共资源。此后,建设“智慧法院”“智慧法务”成为风潮。官方推动下,各路人马纷纷进场,一批“智能”产品相继面世,法律AI真正被提上了产业层面。

财新记者在此前走访公检法办案机关时也了解到,一些地方开发出相应的应用系统,涵盖整个审判流程,诸如在信息系统上提交证据材料、信息平台进行类案推送以辅助法官裁判、庭审过程中自动生成法庭记录等(详见2017年第48期财新周刊封面报道:“”)。

有法学专家提出,庭审强调办案人员的能动性和亲历性,如果机器发挥的作用太大,办案人员是否会被牵着走?借助机器分析出来的结果,如何让当事人接受?业界和学界就此达成的共识是,人工智能只能作为辅助手段,最终的落脚点仍然是办案人员本身。

其实,人工智能与法律结合的研究已有多年的历史。1958年,法国科学家Lucien最早提出了法律科学的信息化处理,即建立法律文献和案例自动检索模型。1970年,美国学者Buchanan发表了《关于人工智能和法律推理若干问题的考察》一文,标志着人工智能与法律作为研究分支的诞生。1987年,位于美国波士顿的东北大学举办了首届国际人工智能与法律会议,此后这个国际会议每两年定期举行一次,人工智能与法律的结合也进行了诸多实践。

在此次清华大学法学院举办的论坛上,李本教授表示,美国的刑事诉讼程序中,算法被大量运用于预测个体是否会再次犯罪、是否会在开庭日出庭等的可能性,从而影响关于保释、量刑和假释的决定。“监狱里的人实在是太多了,司法部门希望在人工智能的帮助下通过更精确的风险评估来降低羁押率。”事实上,风险评估一直是量刑和假释裁定的组成部分。过去,这种评估依据的是法官的“直觉、本能和正义感”,现在则是依靠算法。

美国司法机关现在主要使用三种风险评估软件:COMPAS,PSA和LSI-R。美国约有一半以上的州使用这些模型辅助法官量刑,其中一些州使用模型来辨别可能再犯的囚犯,另一些州则直接依靠模型作出量刑。COMPAS与LSI-R模型涉及五个主要的领域:犯罪情况、人际关系、个性、家庭和社会排斥程度。由于软件的专利性质,模型里面确切的考虑因素及其权重外界不得而知。一些学者推测,模型的考虑因素还包括工作经历、经济情况、婚姻状况、教育水平、家庭成员犯罪记录等。

李本教授介绍,在具体操作上,这些模型会基于一些历史数据来做出风险评估;随后模型会针对被评估者提出一系列的问题,并从被评估者的回答或其犯罪记录中提取答案;最后,问题的答案会进一步和历史数据进行对比。

但使用机制不透明的算法替代法官的裁量招来了许多批评。第一个问题即算法评估的准确性问题,李本教授介绍,研究表明,在算法预测的会实施暴力犯罪的人中,仅有20%在之后的两年内实施了暴力犯罪。模型在预估某一群体的再犯风险时相对可靠,但是对某一个人的再犯风险预测却会失准。

另外被诟病的一点是,算法在评估时会参考家庭情况、贫困程度、违法情况和受教育程度等,这样就会形成一种“压制贫困者的体制”。同时,一些学者提出算法评估存在种族偏见和歧视。例如,模型中有是否与警察打过交道这一问题,而在美国的大城市,年轻的黑人经常会被警察拦下来盘问,这样的问题就会高估黑人被告人的再犯可能性。

此外还有程序正义问题。由于专利因素,设计这些算法模型的公司拒绝公开模型具体的考量因素,被评估者也无从知晓算法是如何设计的。同时,目前算法评估的使用几乎不存在任何规则和标准,在一定程度上形成了“黑箱”。“公众对司法的信任建立在司法透明的基础上,因此,需要增加人工智能技术的透明性。”李本教授说。

李本同时表示,尽管有上述担忧,人工智能在风险评估中的应用在继续传播,“与传统的保释决定相比仍有一些优势”。

搜索

广告位
广告位

标签云

广告位