人工智能

司法正义可以通过人工智能实现吗?

2025China.cn   2021年04月06日

  编译 | Mr Bear

  校对 | 维克多

  著名学者 Terence Mauri 以其对颠覆性技术的评论而闻名。他是麻省理工学院和伦敦商学院的客座教授,其观点被广为发表。2020 年 10 月,Tenrence Mauri 发表了一篇发人深省的的评论文章「Robot judges that can determine guilt will be 'commonplace' within 50 years」,讨论了他对法律系统的预测。

  这篇文章提到的「可以判定有罪/无罪的机器人法官将在 50 年内普及开来」并不是一件令人沮丧的事情。事实上,这是一个相当重大的论断。正如诺贝尔物理学奖获得者玻尔所说,「预测是非常困难的,尤其是对于未来的预测」。然而,这种构想却似乎为那些希望将人工智能技术用于司法公正和个人权利的人照亮了前路。

  按照 Mauri 的假想,机器人法官可以按照如下所述的方式工作:机器人法官将分析从被告处收集到的音频、视频、热量等数据,从而寻找判断其是否说谎的线索,这些线索可能是不正常的语言模式、面部表型或身体温度变化。这种分析可以检测出人类察觉不到的线索,检测出说谎的标志的准确率高达 99.9%。

  然而,Mauri 的假想也存在一些漏洞,在以下情况下,其假想可能不成立:

  首先,Mauri 似乎将正义和测谎混为一谈,但这样做过于简单了。有的说谎者可能很擅长说谎。但是律师可能将正义称之为「法律对事实的正确应用」,而这不仅仅涉及测谎。在普通法系中,「犯罪」是指有「犯罪心理」或「犯罪意图」的人实施了有罪行为。因此,在刑事法庭上(以及陪审员你的脑海里),人们的工作之一就是试图回答一些有关被告心理状态的问题。

  诚然,具有必要的犯罪意图的被告可能不得不通过撒谎来掩盖这种意图,但是检测这些谎言并不像对有关精神的问题做双选题。例如,盗窃的部分犯罪意图是「试图永久夺取他人的被偷物」。陪审员需要评估被告的意图,此时检测到的谎言可能对该任务有所帮助。谎言可能存在于人类或其证据的一系列信息中,这些信息包括其它的谎言、真相、陈述、矛盾和推断。

  人们需要向法律及其应用投入更多的思考。例如,人们的非法判定可能是无意间进行的。有时人们会对真实场景下目击的现象做出错误的陈述,从而导致产生法律上的错误。如果有待回答的问题是「行为是否合理」、「某种信念在民主社会中是否值得尊重」、或者「过失行为的后果是否可以预见」,我们应该怎么应对?可见,优势法律测试是十分微妙的。

  不过,机器学习系统确实能够发现人类观察者无法发现的模式。Mauri 可能希望人工智能可以从大量有关案件及其涉案人员的大量数据中提取出犯罪的痕迹。只要人工智能系统不会始终直接将说谎等同于有罪,该系统就是相对可行的。如果人工智能将被用于帮助判定有罪或不当行为,它将不仅仅是一个大型的测谎仪。

  除此之外,我们还需要考虑「对信念的体现」,它往往是将人工智能应用用于人类行为的基础。

  在 Mauri 看来,他构想的人工智能法官将收集被告所有一丝一毫的数据,并且在缺乏有效的经过标注的训练标签或者手动编码的特征的情况下,对数据抽丝剥茧。但不幸的是,我们怀疑这种推断方法很可能会像这样发展:说谎者和讲真话的人之间的差别必须表现在语言类线索和非语言线索中,而我们可以及时将人工智能发展到可以准确识别这些区别的地步。

  然而,「科学」思想并不支持这种「对信念的体现」。Vrij 等人给出了一些批判性的观察:并不存在仅仅与说谎相关的非语言和语言线索——并不会像「匹诺曹」一样,说谎鼻子就会边长。说真话的人和说谎者之间的差异往往非常小;说谎者会努力让自己看起来可信。如上文所述,有些人真的很擅长说谎。

  有趣的是,心理学实验也会遇到与人工智能的训练集相类似的问题。在一个典型的实验设计中,一些被试会被要求执行一项任务,而其它的人则被作为对照组。例如,Mann等人在论文「Unraveling the Misconception About Deception and Nervous Behavior」中所展示的,其试图掌握个人走私非法物品时的行为变化。然而,如果我们要求「普通人」以犯罪的方式行事,这类研究真正的价值又何在?我们观察的是并没有犯罪的人在试图扮演罪犯时的行为,而实际上我们想要观察的是真正的罪犯的行为。

  在机器学习的应用中,我们也会看到系统使用错误的「被试」的数据训练。招聘软件就是一个很好的例子:我们往往会使用一些被认为具有某项工作所需的特质的雇员的数据训练招聘平台软件。在对这群员工进行采访后,采访记录(例如,眼神交流、词汇的范围、面部表情、语音语调)会被用作机器学习的行为特征。接着,「被试」会接受一个视频采访,系统会根据学习到的特征对其进行评分。

  然而,这种评价方式存在一些不合理的地方:根据定义,用于训练的人群已经得到了工作,他们已经带上了某种社会偏见的印记;此外,完全无法胜任工作的人太少了,也有太多的人由于人脉而非才能得到了工作;这种系统深深地印刻上了企业雇主的文化烙印;用于训练的人群在职业道路上相较于待招聘者走得更远,他们对采访结果并不会太紧张。而且,所有上述问题都建立在某种并不一定成立的「对信念的体现」上,它假设行为特征和能力之间存在关联。

  本文并非想要向读者传递一种悲观的情绪。我们只是想针对当前的机器学习应用和方法进行一些外推的思考,即使在它们已经取得巨大成功的领域中,这些应用和方法也过于狭隘。我们的直觉是,人工智能将深刻地改变法律系统及其运行模式。但是,这种深刻的变化将取决于对于更深入的人类课题的研究:相信某人意味着什么?何为公正?如何判断是否公正?何为直觉(它在人类的判断过程中,是一种很少被察觉到的影响)?本文作者「对信念的体现」是,认为这些人类的概念都只不过是复杂的科学谜题,而非无法科学地解释的东西。

  让我们把眼光重新投向机器学习应用,本文所表达出的担忧可能与 Matthew Syed 在「Rebel Ideas」一书中所提出的「认知多样性的缺乏」有关。从以技术为主的视角来看,考虑将人工智能用于个人权利并不可行。

  参与这项工程的人太少了,在本文提出的例子中,律师和心理学家的加入可能会有所帮助。开发者们总是基于在薄弱的基础上构建优雅而复杂的人工智能系统,然而我们底层的科学理论尚存疑虑,这种理论基础并不牢固、或者没有经过严谨的审查,或者甚至没有底层的科学理论。而也许,他们正试图回答错误的问题。

  论文链接:

(转载)

标签:人工智能 我要反馈
ABB电机与发电机拼图挑战赛
西克
2023世界人工智能大会专题
专题报道
2024汉诺威工业博览会专题
2024汉诺威工业博览会专题

2024 汉诺威工业博览会将于4月22 - 26日在德国汉诺威展览中心举行。作为全球首屈一指的工业贸易展览会,本届展览会...[更多]

第三届EESA储能展
第三届EESA储能展

EESA储能展是由储能领跑者联盟主办的品牌展会,创办至今已经连续举办了两届。为加快适应储能规模化发展的步伐,促进储能行业...[更多]

2023全景工博会 | 直播探馆 · 全景解读
2023全景工博会 | 直播探馆 · 全景解读

2023年9月19日-23日,第二十三届中国国际工业博览会将于国家会展中心(上海)隆重举行。本届工博会将以“碳循新工业、...[更多]

Baidu
map