分类
耶鲁大学新闻

人工智能的法律革命

Yale Engineering’s Ruzica Piskac and Yale Law School’s Scott Shapiro in Yale’s Legal Laboratory, the Lillian Goldman

耶鲁大学工程学院的鲁兹卡·皮斯卡克(Ruzica Pisca)和耶鲁大学法学院的斯科特·夏皮罗(Scott Shapiro)在耶鲁大学法律实验室(Lillian Goldman Law Library)的莉莲·戈德曼(Lillian Goldman)法律图书馆。

这个故事最初发表在 《耶鲁工程》杂志上

法律可能是一件复杂的事情,即使是看似简单的事情。想知道您前院的橡树是否违反了当地的分区条例?弄清楚这一点可能意味着要涉足一大堆法规,所有这些法规都是用令人困惑的法律术语写成的。

城市分区代码可以包含数以万计的细致详细的规则、法规和指南。即使 60 兆字节以上的文档不会使您的计算机崩溃,您仍然必须尝试理解所有内容。即使对于法律专家来说,这也是一项艰巨的任务。对于外行人来说,破译这样一套拜占庭式的规则几乎是不可能的。

为此,分别来自耶鲁大学工程与应用科学学院和耶鲁大学法学院的鲁兹卡·皮斯卡克(Ruzica Pisac)教授和斯科特·夏皮罗(Scott Shapiro)教授正在利用人工智能(AI)为您服务。借助先进的人工智能工具,他们正在开发一种被称为“法律机器人”的系统,该系统可以比人类律师更快地审查和解析分区法、税收规定和其他复杂的法律规范。他们以17世纪的博学家的名字命名了他们的相关创业公司莱布尼茨人工智能(Leibniz AI),他梦想着一个自动化的知识生成器。

对于用户来说,法律机器人背后的概念相当简单:向它提出一个法律问题,它会为您提供一个易于理解且准确的答案。

Depiction of “lawbot” chatbot in action.
皮斯卡克和夏皮罗的“法律机器人”可以比人类律师更快地审查和解析分区法、税收规定和其他复杂的法律规范。

两位教授不仅提供有用的建议,还认为他们的制度有助于使法律制度民主化。获得不费时的可靠信息,使普通人能够了解自己的权利并做出更明智的决定。

该系统利用了大型语言模型的力量,这些模型可以理解和生成人类语言——从本质上讲,它们简化了法律分析,并允许用户以通俗易懂的语言提出问题并获得答案。至关重要的是,该系统还应用了自动推理,这是一种使用逻辑和形式化方法来可靠地解决复杂问题的人工智能形式。如今流行的聊天机器人已经显示出一种“幻觉”的倾向,即断言虚假陈述是真实的。显然,这不是你在律师身上寻找的东西。但多亏了自动推理,莱布尼茨人工智能法律机器人只能提供头脑清醒的响应。通过系统地验证和确认推理过程的每个步骤,它大大降低了出错的可能性。

我们希望利用我们已经学到的关于法律环境中推理的见解,“计算机科学副教授Piskac说。“然后,我们可以将它们应用到现实世界的设置中,以便像我这样的普通用户或其他人可以提出他们的问题。例如,如果我有额外的房间,我可以在 Airbnb 上租用吗?

目前有基于人工智能的初创公司专注于提供法律服务。然而,与Piskac和Shapiro的系统不同,没有一个使用自动推理或任何其他类型的正式验证他们的结果。相反,它们往往主要依赖于不可靠的大型语言模型。

耶鲁大学艺术与科学学院(Yale of Arts and Sciences)的查尔斯·F·索斯梅德(Charles F. Southmayd)法学教授兼哲学教授夏皮罗(Shapiro)表示,开发一个法律机器人似乎是展示人工智能技术前景的绝佳机会。但是,通过大型语言模型增加对法律信息的访问带来了确保信息准确性的义务——当涉及到法律时,风险很高。

他说,这就是该系统的自动推理、验证和逻辑求解器技术发挥作用的地方。其结果是,细致入微的法律信息在用户指尖快速准确地传递。

“深度跨学科”合作

在皮斯卡克的博士生塞缪尔·贾德森(Samuel Judson)提议向美国国家科学基金会(NSF)申请研究资助后,皮斯卡克和夏皮罗开始合作。该提案要求开发负责任的软件系统,这是一个需要法律专业知识的项目。皮斯卡克给夏皮罗发了电子邮件,她以前从未和夏皮罗说过话。

我想,’嘿,我是一个喜欢逻辑的人。你愿意和我一起做一个涉及逻辑和法律的项目吗?皮斯卡克说。“斯科特在几分钟内回答说:’是的。我也喜欢逻辑。不久之后,他们与皮斯卡克小组的研究科学家蒂莫斯·安东诺普洛斯(Timos Antonopoulos)一起申请并获得了NSF的问责制项目研究资助。

夏皮罗说,如果没有两位研究人员的参与,他们完成的工作是不可能的。

我真正喜欢这个项目的一件事是它的跨学科深度,“他说。“我必须学习程序验证和象征性执行,Ruzica和她的团队必须了解法律责任和意图的本质。在这种情况下,我们从一个非常高层次的哲学、法理学思想一直到开发一种工具。这是一件非常罕见的事情。

每个研究领域都有自己的术语和思维方式。皮斯卡克说,一开始可能会让事情变得棘手,但拥有共同的兴趣有助于克服这些障碍。

斯科特会说些什么,我会说,’不,从计算机科学的角度来看,这是不正确的。然后我会说些什么,他会说,’不,从法律角度来看这是不对的,’“她说。“这种即时反馈确实对我们有帮助。当你们坐在一起比较和讨论事物时,你会意识到你们的目标和想法是一样的。你只需要调整你的语言。

耶鲁大学工程学院院长杰弗里·布洛克(Jeffrey Brock)表示,此次合作是一个很好的例子,说明学校如何引导围绕人工智能的对话,并为快速发展的领域做出有影响力的贡献。除了与耶鲁大学法学院和耶鲁大学医学院合作的人工智能相关项目外,他指出,工程学院一直在与杰克逊全球事务学院合作开展网络安全方面的工作,更多的合作正在进行中。

工程学正在通过帮助校园内的其他学校和学科蓬勃发展来提升耶鲁大学,“布洛克说。“在生成式人工智能时代,法律和医学等领域将与技术发展和先进算法密不可分。为了让耶鲁的这些学校保持其卓越地位,他们越来越多地参与我们的使命,我们希望帮助他们的工作变得更好。这种情况现在正在发生,我们预计未来还会在更大程度上继续下去。

他还指出,跨学科的方法反映在学校的课程中。例如,皮斯卡克和夏皮罗共同教授“法律、安全和逻辑”课程,该课程探讨了计算机自动推理如何推进网络安全和法律推理。布莱恩·斯卡塞拉蒂(Brian Scassellati)教授新开设的一门课程“未来总统的人工智能”(AI for Future Presidents)是为所有学生设计的,对技术及其社会影响采取了一般方法。

把车放在架子上

我们的生活越来越与人工智能的自动化决策交织在一起。自动驾驶汽车使用人工智能来共享我们的道路,医疗保健提供者使用它来制定某些诊断和治疗计划,法官可以使用它来决定量刑。但是,即使有最好的意图,当事情出错时会发生什么?谁负责,在多大程度上负责?算法可能会失败——它们可能导致致命事故,或者在法院判决中延续基于种族和性别的偏见。

在一个结合了计算机科学、法律规则和哲学的项目中,Piskac 和 Shapiro 开发了一种他们称之为“soid”的工具,它使用形式化方法来“将算法放在台上”。

为了更好地理解如何让算法负责,Piskac 和 Shapiro 考虑了一辆自动驾驶汽车撞到另一辆自动驾驶汽车的情况。对于人类司机,律师可以提出直接和间接的问题,以了解谁是过错方,以及司机的意图是什么。例如,如果人类司机能够令人信服地证明车祸是不可预见和无意的,陪审团可能会对他们更轻松。

与人类驾驶员一样,自动化决策系统在复杂环境中做出无监督的决策,在这两种情况下,都可能发生事故。然而,正如研究人员所指出的那样,自动化系统不能只是走进法庭并发誓要说出全部真相。然而,他们的程序可以被翻译成逻辑并进行推理。

Piskac和Shapiro及其团队开发了一种使用自动推理的系统,该系统可以严格地“询问”算法行为,其方式反映了律师在法庭上对证人可能采取的对抗性方法。他们说,这种方法是一种可证明的方法,可以保证决策算法的准确和全面的答案。

基本的想法是,我们开发了一种几乎可以模仿试验的工具,但用于自治系统,“Piskac说。“我们使用汽车是因为它是人们很容易理解的东西,但你可以将其应用于任何基于人工智能的系统。

在某些方面,自动化决策系统是理想的见证。

你可以问一个人所有这些问题,但一个人可以撒谎,“她说。“但是这个软件不能骗你。有日志,所以你实际上可以看到——“你看到这辆车了吗?如果它没有在日志中注册,他们就没有看到这辆车。或者,如果它被注册了,你就有了答案。

使用由 Judson 在 Piskac 实验室构建的 soid,研究人员可以提出事实和反事实查询,以更好地理解决策算法的功能意图。这有助于区分由诚实的设计失败和恶意设计实践引起的事故——例如,系统是否旨在促进保险欺诈?事实问题很简单(“汽车向右转弯了吗?反事实更抽象一些,它提出假设性的问题,探索自动化系统在某些情况下可能或会做什么。

然后,当你问所有这些反事实问题时,你甚至不需要猜测人工智能程序是否在撒谎,“皮斯卡克说。“因为你可以只执行代码,然后你就会看到。

新闻旨在传播有益信息,英文版原文来自https://news.yale.edu/2024/03/25/ais-legal-revolution