前言
AI技术的快速发展,已然对法律行业产生了深远影响。自2023年以来,在全球范围内,各类法律AI应用如春笋般冒出,迸发着独有的生机。
针对此现象,美国律师协会(ABA)近日特别发布了一份专门调研报告,从应用、伦理到监管层面,全面地探讨了法律AI发展的现状及未来。借助下文,我们看看美国律协是如何看待对这股浪潮的:
(下文译自美国律师协会发布的相关报告,内容为节选。需要英文版全文的,请移步至本文末,扫码添加法助小爱即可免费领取!)
法律垂直领域AI应用
一、提取式AI
目前律师事务所和法律部门最常用的AI工具仍是基于提取式的AI。提取式AI针对的是律师事务所文档数据库中的有限文档集——例如,对于一个复杂庭审的陈述(depositions)、宣誓书(affidavits)和证词(testimony),或者监管机构关注的议题。这种功能最大限度地发挥了AI对律师的价值,因为它利用了AI最擅长的事情——处理海量信息。
二、法律研究与分析
提取式AI在法律领域的另一个日益增长的应用是对现有法律、规则、法规或监管机构的公开声明进行分析。一旦AI充分吸收了这些材料,律师就可以要求提取式AI找出与当前客户需求相关的模式。
例如,律师可以询问AI关于某个特定法律条款如何在过往案例中被解释和应用的信息,或者要求AI找出监管机构在某个特定议题上的立场演变。AI可以通过扫描大量的文档来识别趋势、先例和潜在的相关法律理论,从而辅助律师进行更为深入和精准的法律研究与分析。这种方法不仅加快了研究过程,还提高了律师为客户提供定制化法律建议的能力。
三、合同事务
律师也可以使用提取式人工智能,例如请求从法律部门的采购数据库中找出有利于供应商的赔偿条款示例,这些条款出现在软件合同中。公司的法律顾问可以要求其提取式人工智能展示采购数据库中所有偏离公司标准格式的合同,特别是关于责任限制的部分,并按从最高公司风险到最低风险的顺序列出这些合同。
转折点——生成式AI?
生成式AI根据用户的提示产生新输出,有可能改善法律实践的方方面面,包括提高许多任务的执行速度和减少花在常规任务上的时间,使其成为法律领域AI应用的“搅局者”。法学院越来越多地将生成式AI融入其课程中。生成式AI还可以通过使法律资源更广泛地可用,缩小“正义鸿沟”。
对于法律专业人士而言,理解并意识到这项技术的潜在用途以及与生成式AI相关的局限性和风险非常重要,这些风险包括隐私和安全风险、生成不准确内容的可能性以及知识产权问题。
法律AI伦理的考量
十多年前,美国律师协会(American Bar Association, ABA)修改了《ABA模范职业行为规则》("ABA Model Rules"),以反映技术对21世纪法律实践的影响。
每一次技术变革都会带来复杂的法律和伦理问题,这些问题关系到法律实践的本质。了解生成式AI的风险和局限性是法律从业者确保技术能够被安全且负责任地使用,并符合其职业义务的第一步。其中需要留意的重要方面,当属AI“幻觉”(Hallucination)现象:
何谓“幻觉”?法律从业者需要深知,基于语言的生成式AI并不是带有起草功能的搜索引擎,而是一个预测引擎,它只是试图逐字预测对提示的回答。
因此,生成的答案可能因为欠拟合、过拟合或者语言数据集本身的问题,致使生成结果出现无法自洽的谬误。这并不意味着这项技术对律师没有用处。它仅仅警示着着无论如何,律师都有责任确认他们提交给法院的所有引用的存在性、准确性和恰当性。
触手可得的正义?AI与司法救济
AI,尤其是生成式AI,在解决美国未获满足的司法救济需求方面能发挥什么作用?
我们认为,生成式AI可以开拓普罗大众寻求正义的道路。这项技术可以被开发用来为自行诉讼的当事人提供可靠且易于获取的信息,并为法律服务律师提供急需的支援。
借助值得信赖且负责任的生成式AI工具,没有代理人的个人可以获得基本的法律信息,以便在遇到法律问题时了解可行的选择。AI工具还可以减轻法律倡导者日常工作中重复、劳动密集型且有时单调乏味的任务,特别是在大多数非营利法律服务机构面对天量案件的情况下。
美国“正义危机”现状十分严峻。解决这个问题需要采取与问题规模相匹配的大规模解决方案。生成式AI因其能够对简单语言提示生成全面的回答,具有在前所未有的规模上改善正义获得伸张的潜力。它有可能实现法律工具的民用化——让法律变得对公众可接触并且可使用,而这正是正义体系旨在服务的对象。对于法律行业来说,面临的挑战是在实现这种潜力的同时管理当前AI系统中存在的风险。
行稳致远——AI的治理
无论是法律AI亦或是其他领域的AI,如何对其恰当治理和监管,是下一阶段的重要课题。截至目前,各州已陆续通过了管理人工智能使用的法律。
2024年5月,科罗拉多州通过了《科罗拉多人工智能法案》,这是首个州级法律,为“高风险人工智能系统”的开发者和部署者设立了广泛的规范要求(定义为任何在部署时会做出或成为做出重大决策的重要因素的人工智能系统)。
该法律将于2026年2月生效,要求“高风险人工智能系统”的开发者和部署者采取合理的预防措施来保护消费者免受算法歧视,并为旨在与消费者互动的人工智能系统建立了披露要求。
-完-
↓请扫码添加客服微信领取全文!↓
