首页 科技正文

AI 当法官,会是正义女神的化身吗?中研院法律学研究所李建良从法学角度来分析

admin 科技 2020-10-13 9 0
AI 当法官,会是正义女神的化身吗?中研院法律学研究所李建良从法学角度来分析 第1张

Alpha Go 打败人类棋王,自驾车跃跃欲试,人工智慧不仅改变世界运作的规则,也逐渐从科技跨入人文社会领域。让 AI 坐上审判席,会是追求正义的新解方吗?AI 法官是铁面无私的包青天,或者科技暴走的新危机?「研之有物」专访中研院法律学研究所特聘研究员李建良,从法学视角提供思辨观点,我们不只应审视 AI 的技术能力,也必须严肃面对规范性界线。

人工智慧变身法律小帮手

十几年前,电脑会拣土豆已经够惊奇,现在的 AI 更是大进击,能辨识人脸、驾驶汽车,根据 2019 年众多媒体报导,欧洲爱沙尼亚甚至即将推行「AI 法官」!法律事务涉及事实认定、法条解释与价值规范等多重问题,人工智慧果真已如此高「智慧」,有能力涉入复杂的法律领域?

AI 当法官,会是正义女神的化身吗?中研院法律学研究所李建良从法学角度来分析 第2张前两波人工智慧(AI)希望电脑能像人一样思考,但皆失败。2010 年至今的 AI 热潮由「 机器学习」领衔,简单来说就是我们提供大量资料,让电脑自己找出事件之间的关联规则,学会判断,在许多领域都已比人类预测得更精准。
资料来源│〈人工智慧在台湾〉演讲,陈升玮

中研院李建良特聘研究员说:「将 AI 应用到法律诉讼其实并非未来式,而是行之有年的现在式。」

在美国,近年法院已广泛运用「COMPAS」系统,这是一套由商业公司开发的 AI ,帮助法官评估被告的再犯风险,作为量刑的准据。COMPAS 会进行大量问答调查,依据被告回答、年龄、过往犯罪纪录与类型等各项资料,推估被告的再犯率,给出 1-10 的危险指数,最后由法官决定被告服刑的长短。

有研究指出,AI 判定为高风险者,63% 在交保期间犯罪,其中 5% 犯下性侵或谋杀。做为法官小帮手,AI 似乎确实能发挥一定程度的「鹰眼」,预测危险性。

AI 当法官,会是正义女神的化身吗?中研院法律学研究所李建良从法学角度来分析 第3张国内也逐步尝试将 AI 运用在量刑与家事判决预测。司法院建立的「量刑趋势建议系统」,以自然语言分析判决书,提供类似案件的量刑参考。清华大学研究团队则开发出「AI 人工智慧协助家事判决预测系统」,让 AI 从判例「学会」法官的判决模式,预测抚养权花落谁家。
图片来源:取自量刑趋势建议系统网页 

法官不是人?!别急,再等等

从现况来看,人工智慧确实已进入国家司法系统,但目前仍作为「专家团队」扮演辅助角色,由法官做裁决。那么下一步, AI 有可能独当一面坐上审判席吗?

爱沙尼亚的 AI 法官计画,似乎就朝着这个方向前进。

根据报导,AI 法官将处理小额民事诉讼案件(少于 7000 欧元,台币约 24 万),由原告方输入诉讼对象、金额、提告理由等。AI 系统能从过往大量判例学习,解析法条做出判决。换句话说,隔壁邻居摔坏你的 iPhone,你一状告到法院,会由 AI 判定谁胜诉,邻居该赔你一台手机或折价金额。对结果不服?可以上诉,将有人类法官审理。这项超级计画如果成真,「法官不是人」恐怕就要从骂人话变为描述句了!

不过,李建良特别澄清:「媒体报导后,我们研究团队成员曾请教爱沙尼亚法界人士,目前所知这是数位政府计画的一部分,但应该还只停在『计画』阶段。」

他强调,若要把国家审判权完全交给 AI ,必定需要法源基础,明确建立一套法规方案。由于目前爱沙尼亚并没有出现相关法规,这个突破仍是「只闻楼梯响」。

AI 当法官,会是正义女神的化身吗?中研院法律学研究所李建良从法学角度来分析 第4张

AI 法官的技术边界:它能做出好判决吗?

尽管 AI 尚未披上法官袍,但爱沙尼亚构想仿佛是惊天一雷,预示出可能的未来图像。许多人或许有同样的好奇:AI 当法官究竟行不行?

李建良分成不同层次来讨论:

行不行有两层涵义:能力上行不行,规范上可不可以。

第一层次是「可能性」问题:AI 法官足以担任人类法官的角色吗?更直白地问:AI 真有那么厉害,能够做出好判决?

要确认 AI 的能力,首先我们得问:什么是好判决?

「这牵涉社会对法院判决的评断标准。」李建良分析,一种标准是检视「判决结果」;另一种则是审视「判决理由」,法官在判决书详述的心证,如调查结果、采信哪些证据、证据效力、法条依据等。

若观察近年台湾社会的现象,大众似乎较关注判决结果。好比引发社会瞩目的「台铁杀警案」,这桩尚未确定的争议案件,引发了司法当局对司法鉴定制度的重视与检讨,而舆论譁然多半是杀人无罪的结论,批评法官「不接地气」,关于心证过程的讨论相对较少些。

换言之,假如重视结果,那不难想像 AI 法官有能力透过归纳、类比分析对案件做出判决。但若我们在乎法官为什么、如何做出裁决,依照目前技术和爱沙尼亚计画,AI 所产出的可能只有答案,但没有理由(或较简式的理由)。

这形成了第一重挑战:

若 AI 法官无法清楚说明理由,我们如何检视它的判决好不好?有没有瑕疵?

有些人也质疑,AI 的精准、一致可能反倒是弱点。现行 AI 不具有真正理解他人的能力,无法实际参与答辩交锋和开庭审理,而许多讯息来自临场、个别案例的判读,并非用数据化与资料化就足够解释,背后涉及文化、风俗、情境常识,相当复杂。  

AI 当法官,会是正义女神的化身吗?中研院法律学研究所李建良从法学角度来分析 第5张目前的人工智慧仍属于「弱 AI」,没有意识、思考能力,只是透过巨量资料与机器学习归纳出已知和未知之间的关联。哲学家 John Searle 曾用「中文房」譬喻提出挑战:如果 AI 并不了解真正意涵,就算它能和人一样做出正确回应,似乎也不代表它就有独立的心灵意识。
图说设计:刘芝吟、林洵安 

不过,AI 派并没有全输!

首先,技术可能超前突破,让 AI 未来也有能力写判决书、说明论证。另外若拿现行制度相比,美国陪审制同样只宣告:「陪审团认为无罪」,不会附上理由。更何况所谓的情境判断,经常也会造成主观性偏误,《美国国家科学院院刊》(PNAS)研究发现,接近午餐时间法官对假释认定较严格,用餐休息后,假释审查就变宽松了!

想要假释,还得祈祷法官吃饱饱?恐怕多数人难以接受。

铁面无私包青天? 小心 AI 的内建歧视

总地来说,理性、客观几乎是 AI 的最大光环,以准确一致的逻辑做判断,不受法官个人情绪与好恶影响。

但真是这样吗?许多研究证实:AI 默默戴上了有色眼镜! COMPAS 系统被抨击带有种族歧视,有色人种更容易被预测为高再犯率;亚马逊招聘、苹果信用卡信贷系统都曾被发现隐含性别差别待遇。

「这就如同人类一路走来看到的历史不平等。」Amazon 资讯科学家说。

AI 系统在资料学习的过程,复制了人类长年累积的性别、种族、阶级偏见。即便这些偏见已长久存在,但 AI 可能更强化不平等,因为人们会在毫无所觉下,信任科技工具的「客观」讯息,对陌生人打分数。

然而,科技支持派没有全盘放弃。AI 歧视是学来的,因应之策是在资料训练时降低这些「标签」,并且提供多样性的资料。此外,比起人类刻意包装、掩饰偏见,AI 反而有机会让偏误被「显题化」,让我们更加警觉,并进行修正。

综合而论,若单从技术可能性评估,目前的 AI 也许不够「聪明」,但是只要科技持续追求突破、进展,似乎没有理由全盘否定 AI 法官可行性。毕竟,人类同样也会犯错、误判、有偏见。

「从能力来看,AI 确实可以帮助人类、补位弱点,很值得期待未来发展。」李建良持平分析:「但国家是否应该开放制度,更重要的仍在第二层次的考量。」

AI 法官需要明确法源基础

他点出更关键的第二层议题:从规范角度来看,让 AI 当法官可不可以?

简单来说,即使人工智慧有能力独立分析、判决,我们应该把审判大权交给 AI 吗 ?是否可能衍生伦理问题

「第一个遇到的是:需不需要修宪?这是多数人忽略的框架。」专研宪法、行政法的李建良特别指出。法官的身分保障及审判独立的要求是直接写在宪法上头的,但宪法规定的法官是不是专指「人」呢?法学界可能有不同论述。

如果宪法说的法官专指「人」,也就是法官审判权奠基在人的前提,势必需要修宪。反之,就算宪法允许「非人」担任法官,仍然需要修法 ── 如同刚拍板的《国民法官法》,国家同样必须建立一套法制来规范非人法官。例如,适用民事或刑事案件?能上诉吗?上诉后交给另一位 AI 法官(AI 会有不同法官吗?),或者由人类法官打掉重来?

价值选择的难题:科技优势 VS 法律原则

法源基础仅是第一步,对整个社会而言,AI 法官挑战的是价值选择的难题。

2013 年,美国威斯康辛州法院参酌 COMPAS 风险指标,判处被告 Eric Loomis 6 年徒刑。Loomis 不服而上诉最高法院,认为法庭以 AI 系统裁决是一种「秘密审判」!要求说明 COMPAS 系统如何演算判断出危险值。

这个案例显然暴露了 AI 法官的价值冲突:演算法黑箱(black box)。

「在民主法治国家,法官不是个人,他代表的是国家。审判必须在公开透明的运作下,被监督、检验、究责。」李建良说:「法院公开审理、法官说明判决理由,都是来自这种被检验的要求。」

倘若披上法官袍的 AI ,无法开庭、诘问、说明判决理由,让审判摊在阳光下,势必挑战现行的法院体制,也可能稀释透明、公开、负责的司法价值。我们无从知道它为何会做出 A 判决,而不是 B 判决,不能确定它有没有失误,也难以确认责任归属。

Loomis 案也突显出另一挑战:代罪羔羊! AI 推测来自过往的资料,但「相似条件的其它人这么做,不代表个别主体也会这么做」。

这同时让人担忧 AI 的「因袭性」:社会信仰的美好价值是不断翻转、改变,有时正是因为划时代的法院判决,才让我们终于能破除传统、确立新价值,例如美国法院推翻种族隔离平等制度,AI 法官会不会弱化、压缩了法律肩负的深刻意义?

李建良直言,第一层次的「能力可行性」是人与 AI 的 比较参照,AI 能做到什么,补足哪些人类弱点,带来什么优势。

但最终,「伦理辩证」仍是无可回避的关键核心,当新科技打破、牴触基本价值,我们是否愿意为了科技可能提供的「客观公正」,放弃退让这些原则?

AI 当法官,会是正义女神的化身吗?中研院法律学研究所李建良从法学角度来分析 第6张

人文关怀,也是艰困的价值论辩

「这不会是全面赞成/反对的选择题,因为 AI 法官很难普遍性适用每一种案件。」李建良强调。

AI 在资料统整、数据分析上已大放异彩,导入科技新工具、人机合作,可以减轻法院负担,也拉近一般人与诉讼裁决的距离。然而,法律范畴高度复杂,即便未来开放 AI 法官,也必定是在特定的条件、脉络与案型。

他以行政法说明,「大埔农地要不要征收?美丽湾渡假村能不能盖?这类行政法案件极度复杂,牵涉环保、制度、法规多重冲突,还有价值选择的命题,不太可能由 AI 独立裁决。」

更重要的是,即使技术边界有机会突破、修正,让 AI 越来越聪明,我们也不应回避第二层次的伦理辩证。这也正是人文学科最重要的价值关怀。

「我们很容易倒过来想,认为有这么多好处,为什么不开放、不使用?但人文学者关注的是价值伦理,一旦越过了某些界线,无论多少优势,我们都必须谨慎、严肃地看待。」李建良提出艰难考验做类比:

当你明确知道这人是凶手,却没有任何证据,这时我们要不要放弃无罪推定,不计手段坚持罪有应得?这就是价值选择的论辩。很困难,但很重要!

AI 当法官,会是正义女神的化身吗?中研院法律学研究所李建良从法学角度来分析 第7张人文学者的使命,是预先关切各种可能的问题。」面对 AI 大跃进,李建良集结法政、社会、哲学学者展开长期跨领域计画,关切 AI 应用的人文思辨。他这么说:「客观来看,目前的 AI 技术还无法高度涉入法律系统,但当我们做更多思考对话,才能让社会更清楚彼此的价值、信念与方向。」
摄影:林洵安 

你不可不知的最智慧移动共享生活!GoShare 登陆新北,这样骑最聪明

有骑过租借机车的人或多或少都曾体会过一些痛点,例如使用不够流畅、车不好骑、不够安全方便⋯⋯ 不过现在 GoShare 移动共享服务不仅解决了这些问题,还推出新车款和新服务,让体验更进一步升级。 GoShare 从去年 8 月首度服务以来,用户人数爆炸性成长,现今已突破 80 万人,营运范围也迅速拓展,由原本的桃园市(2019 年 8 月)、台北市(2019 年 10 月),再推出「GoShare DOTS 定点借还」服务,率先在北海岸「青春山海线」设点,再到台南市(2020 年 6 月) 。现在 GoShare 也听到大家的心声,正式进驻全台人口最密集的都会圈新北市,涵盖主要精华闹区和交通热点,创造更大、更便利的 GoShare 移动共享生活圈。 GoShare 在一开始投入桃园市的车款是 Gogoro 2,而后进军台北市,也加入轻型机车 Gogoro VIVA,相信有在使用 GoShare 的朋友们应该都不陌生。GoShare 如今不仅正式进驻新北市,更新增了 Gogoro 3 车

版权声明

本文仅代表作者观点,
不代表本站Allbet Gaming的立场。
本文系作者授权发表,未经许可,不得转载。

评论