我,非人类律师:人工智能在法律职业中的发展
1 引言
但这个人相当不近人情,兰宁博士。1
此人是斯蒂芬·拜尔利,一位被怀疑是机器人的地方检察官——从不睡觉,也不进食,始终镇定自若,且异常优秀
1阿西莫夫 (1950),第 189 页。
在他的工作中。有人可能会认为,这些都是一些会让普通人类感到恐惧和嫉妒的特征。本章将多次引用斯蒂芬·拜尔利的故事,因为艾萨克·阿西莫夫长期以来一直是我的灵感来源。阿西莫夫以探讨机器人学、人工智能及其在未来人类社会中所扮演的角色而闻名。它们是否会被限制于仅作为我们的智能家居设备和现代奴隶?还是它们将超越这一角色——成为我们的医生、士兵、首席执行官或律师?我们会允许它们这样做吗?更重要的是,我们是否应该允许?请注意这些问题中“它们”一词所带有的语气,几乎透露出焦虑与恐惧,暗示着“它们”是我们自身创造的迫在眉睫的威胁,是又一场即将发生的由人类引发的灾难。在我们戴上阴谋论的帽子,试图寻找足够灾难性的理由来避免将控制权让渡给人工智能之前,我们应当尝试评估这种情况发生的概率,并审视可能带来的后果以及实现如此高水平技术发展的路径。
本章节的关注点将停留在法律和伦理领域,其重点分为两部分——一部分聚焦于法律符号学,另一部分聚焦于伦理。在法律符号学方面,我们将探讨法律是否是一门可以转化为算法的学科。我们能否将法律中的语境或语言细微差别转换为算法?我们是否应当信任人工智能律师来审查我们的合同,或提供法律建议或代理?不难想象,实现其中部分功能所需的技术离我们并不遥远。事实上,一些律师事务所已经在借助人工智能进行文件审查,提高了效率,并使律师能够从事更具智力挑战性的法律工作。2另一方面,完全自主的人工智能律师这一愿景尚需时日,这一构想最初需要进行分析,以确定法律这门延续千年的学科、真正的古老艺术,是否能够在结构上支持非人类律师的概念?
此外,我们将探讨伦理问题:这其中的关键是什么?我们是否需要将道德和伦理规则应用于人工智能律师?随着自主决策的日益使用,我们如何确保人工智能律师有能力做出道德和伦理决策?毕竟,法律是一门建立在公平和平等等价值观基础上的学科。3这与我们迄今为止所见到的人工智能机器人和自主决策代理相比又如何呢?试想谷歌不向女性展示高管职位,或其谷歌图片搜索将黑人识别为大猩猩,4又或者微软推特机器人上线仅24小时后就被迫下线,因其表现出种族主义、性别歧视、反犹太主义行为以及整体偏见。5人工智能的核心目标是创建具有一定自主性并能够模仿智能人类行为的系统,这更凸显了制定道德规则的必要性,以防止此类行为对人们产生不利影响,甚至彻底失控。6我们已经看到了在使用自主决策系统时,例如在加利福尼亚,有人被错误逮捕并登记为性犯罪者,这影响了法治与正义。7正义的运作方式是公正、客观的,其最终目标是实现公平。因此,审视我们发展人工智能与法律领域的方式至关重要——我们必须确保自主决策系统在初期不至于存在严重缺陷,以便我们仍有机会纠正这些缺陷。在这方面,我想类比数据保护法中的设计保护隐私原则8即在工具、服务或产品的开发初期就应融入隐私保护原则和设置,以全面保障用户的隐私并遵守数据处理原则。
同样,我们应该确保采用“设计公平性”,并特别努力创建不会基于任何理由进行歧视的算法解决方案。这一点应该立即实施,因为目前我们仍处于人工智能与法律领域的相对初级阶段。当然,并非一切都已失去——目前也有一些在创建自主决策系统方面的进步实例,这些系统并未对其目标人群造成不利影响:例如DoNotPay.co.uk,该系统已帮助人们处理停车罚单以及难民身份申请。9
致读者的一封信:本章节提出了许多问题,期望对所有问题都找到答案或许多并不现实。本章的目的是探讨可能性、比较理论,并开启一段关于法律和法律职业未来的展望之旅。开展此类探索的重要原因之一在于,迄今为止,人工智能进展在很大程度上避开了法律领域。造成这一现象的原因可能有多个:人工智能研究人员通常并非律师或法律专业人士,因此缺乏将法律应用于其人工智能系统和技术开发中的兴趣与知识;此外,律师们对于在工作中使用新兴技术、特别是人工智能这一概念,也并未表现出足够的开放态度。10
此外,本章节设想了一种能够最大限度地从事法律实践的自主决策机器,即代理,例如拜尔利先生,在阅读时应牢记这一点。自主机器是“一个处于并属于某一环境的系统,能够感知该环境并在时间上持续采取行动,以实现自身的目标,并影响其对未来环境的感知。”11 该定义包含以下要素:这种机器具有“反应性、自我控制、目标导向和时间连续”的特性。12
因此,本章试图探讨一个相当遥远的未来,在那个未来中,我们周围可能会有许多拜尔利先生,而法律职业将看起来与当今的情况有所不同。请注意,“机器”、“人工智能”、“机器人”、“代理”和“系统”这些术语在文中可互换使用。此外,本章节不涉及人工智能律师的法律责任问题。相反,本章可被视为对人工智能律师及人工智能代理普遍存在的法律责任问题的前期准备工作。
本章并不试图超越其原本的定位:一个关于法律职业未来的思想实验,而不带有此类思考中常见的末日论含义。它仅仅是一种设想未来以及我们在其中角色的方式;我们如何帮助塑造这一未来,使其向更好的方向发展,而非变得更糟。
最后,如果我们正在讨论人工智能律师,为何不提及人工智能法官的可能性?在最后一节中,将讨论人工智能法官如何处理所罗门测试。我认为,尽管人工智能律师可能成为未来的现实,但要实现人工智能法官则需要更长的等待时间以及更为复杂的技术。
2 法典化到代码
本章阐明了深入探究法律本质的重要性,旨在识别法律如何能够被转化为算法。这是创建能够执业法律的完全自主的人工智能律师的基础前提。本章讨论了语言学的重要性以及翻译挑战。为了对非人类律师这一问题进行深入分析,必须审视法律的本质。此处的主要难题在于:法律究竟是一个可以轻易转译为算法的数学公式,还是某种更为复杂的事物——一个因其解释方法及适用于每个具体案件的情况而无法单纯简化为算法的系统?
这个面向未来的问题的答案可能在于现有的法律理论和符号学——这再次证明,法律作为一个学科,始终专注于挖掘其过去,无论是寻找判例法先例还是法律文书的预备工作。作为建立社会秩序所必需的领域,法律是任何社会的重要支柱,规范着人类生活的几乎方方面面,从而形成了对日常概念的普遍接受的定义。13鉴于其悠久的历史和众多的细微差别,任何国家的法律体系无疑都是一个庞大且内在交织的法规系统。14这使得没有接受过法律教育的人更难获取有关某一主题的相关且全面的法律信息。15此外,几乎不可能期望单个律师能够掌握所有现行法律在一个系统内能够了解其内容和应用。因此,不难假设法律体系(总体而言)本身将在我们试图将法律转化为一组算法的过程中带来各种挑战。
麦金尼斯和瓦西克提出了一种观点,我想在此加以注意。该观点将法律描述为某种形式的信息技术——它向公众分发有关法律规范的信息,同时从公众获取关于这些规范应包含内容的信息,并最终促成这些规范的变革。16这意味着这种方法将法律视为一种双向运作的信息技术:自上而下代表规范向社会的传播,自下而上代表社会对这些规范的反馈与反应。17规范性框架的确旨在通过提供信息,告知社会哪些行为是被允许的,哪些不是,从而实现对社会的规制。18这相当准确地概括并总结了法律自古罗马法典以来预期发挥功能以及实际发挥功能的方式。这最终意味着,在当今社会,法律规范的传播渠道本质上是一项跨学科的实践:它将法律作为主题,结合现代信息技术作为向公众传递法律规范的手段。19
理查德·萨斯坎德在某种程度上呼应了这一点,他表示,我们在传递信息(无论是法律信息还是其他信息)的方式上已经发生了演变,目前我们的社会正处于信息流动方式的根本性转变之中。20这一趋势丝毫没有停歇的迹象,并且轻松地跨越了各个学科和行业,这种跨领域的渗透能力若不令人钦佩,很可能会令人畏惧。法律领域为何会例外?全球的律师、法官和法律体系都应当利用不断发展的技术来确保工作更加高效和全面,而一些人已经开始这样做了;对于律师事务所而言,希望它们正在逐步摆脱按小时计费的传统模式。21
2.1 语言方面的考虑
让我们探讨一下这种人工智能律师愿景可能实现的途径。在人工智能领域,大多数新技术突破都依赖于自然语言处理等方法,例如Siri、Alexa或 Cortana。本章节认为,自然语言处理对于推动人工智能与法律领域的发展至关重要,不仅有助于创造人工智能律师,也有助于构建帮助公众更广泛理解法律的系统。
与关键词搜索不同,自然语言处理通过理解搜索的含义,提供更“精准”的搜索结果,使搜索者更接近答案,从而让搜索体验更加直观和高效。22在过去的十年中,我们在自然语言处理领域看到了显著的进步,并实现了其广泛应用。
自然语言处理被定义为“计算机程序理解口语和书面语言的能力,是人工智能的一个组成部分。”23鉴于其内涵以及对人工智能整体所能发挥的作用,可以说自然语言处理对于人工智能律师的发展将起到至关重要的作用。
以IBM的Watson为例,我们至少可以得出结论:自然语言处理的能力令人印象深刻。Watson的工作原理是找出与问题最相关且最准确的一系列答案,然后进行风险评估,从而提供最终答案。24 IBM已宣称该方法同样可应用于法律文件25,这将无疑带来法律检索方式的积极变革,使其更加高效和直观。
正因如此,自然语言处理成为创建和发展人工智能律师的一项宝贵工具——这种处理方式本身就蕴含着更顺畅、高效且聚焦的法律信息检索能力,无论信息形式是规范还是判例法。无论正式程度如何,法律语言实际上就是自然语言,即它并不具备独立的语言规则。26因此,对这种语言的翻译很可能属于自然语言处理的范畴。我们在“普通”语言处理方面已经看到了显著进展,但衡量我们能走多远的真正标准,在于这种处理能否转向法律等领域中的专业术语和技术性语言。从这个意义上说,我们将实现对精确术语、其语境及任何例外情况的充分理解。27
一项旨在测试自然语言处理如何与法律相互作用的实验在法国法律体系(法典)上进行。该实验通过句法分析文本以识别名词、动词、形容词以及更复杂的结构,从而识别法律概念。28通过采用术语识别方法、句法分析、建立语义关系,并借助一定的人为干预,研究人员能够创建一套有用的技术,利用自然语言处理帮助本体论专家识别概念——从而使自然语言处理成为一种工具创建可用于法律领域人工智能系统中信息检索过程的本体系统。29
这是一个良好的开端,可能也是创建人工智能律师的基础。然而,我们在此面临着诸多挑战,其中最明显的问题直接摆在我们面前:法律检索仅仅 是回答法律问题的第一阶段之一。从这个意义上说,我们可以设想一台强大的超级计算机能够为我们提供针对某个法律难题最相关的一系列答案,但我们仍可以合理地假设,在不久的将来,这些结果仍需由受过法律训练的人员来处理,以便他们提出正确的问题,并引导计算机朝正确的方向进行分析,而针对该法律难题的最终答案仍将由(人类)律师本人基于超级计算机提供的答案范围进行推导得出。
2.2 翻译过程中“迷失”的风险
即使是最基础的自然语言处理,在尝试创建和发展可靠且有能力的AI律师时,也可能面临挫折。至少在初期是如此。换句话说,这可能还不够。其根源在于“解释法”理论30,该理论依赖于确定法律文书在特定法律体系中的含义,而不一定依赖于语言学解释,而是采用法律解释,即必须考虑不同规范、背景以及解释对象各要素之间的整体平衡。31这一点与法律解释密切相关:法律解释常常试图解读言外之意,即在法律文本中寻找隐含意义,而语言学解释则仅从字面意义出发,完整地理解文本本身。32我将尝试用几句话概括这一理论,并将其应用于本章节的核心内容。从根本上讲,这意味着理解解释法在于能够区分语言与法律。33
换句话说,语言是表达法律的一种工具,但在解释法律时其作用有限。如果情况不是这样,我们就不需要受过训练的专业人士来解释或撰写法律编纂和文本了,因为语言学家也同样能够胜任,但这并不符合法律写作与解释的实际状况。
在此我们可以区分两个学科对有效性的不同处理方式:一般而言,一项未被使用的法律规定在形式意义上仍可能是有效的,即时间的推移或缺乏实践并不必然削弱其有效性;而语言则通常由其使用和实践所塑造,这意味着表达、规则及其他要素如果未使用,可能会随着时间的推移而消失。34此外,由于日常生活中语言的使用方式与法律中语言的使用方式存在差异,我们可以得出结论:法律语言(和术语)与其日常用语大不相同。这种“半人工自然语言”35与日常语言相比,具有更高的精确性和条件性特征。36
然而,这并不排除法律语言会遭遇与日常语言相同的危险,例如误解、主观性以及结构不良的句子。37这表明,复杂的语法结构只是我们在尝试创建一个完全功能的机器人律师时最初面临的障碍之一。38此外,法律语言无论多么精确且远离自然语言,其本身仍然属于自然语言,因此与我们试图将其翻译成的编程语言大相径庭。39
关于法律文本的翻译与解释之间的关系,已有大量资料进行了剖析,这本身就表明,对于如何以最佳方式处理这一问题,目前尚无共识。译者与律师之间的关系并不总是和谐融洽,这已不是什么秘密。这就引出了以下问题:我们为何还要费心于翻译与解释呢?这与机器人律师以及我们创造机器人律师的可能性有何关联?简而言之,一个理想状态下完全运作的机器人律师,将能够轻松应对比较法、法律翻译以及辨别不同法律体系复杂性的问题,而这些都是人类律师可能不具备的能力。
不同的法律体系具有不同的解释规则40,值得注意的是,法律文本的解释因地区或法律体系的不同而存在巨大差异。我将引用Husa提供的一个例子:欧洲人权法院采用所谓的“动态解释”来解释《欧洲人权公约》;这意味着他们并不一定需要探究起草者的意图来理解公约条款的含义。41因此,问题仍然悬而未决:人工智能律师将如何应对这一点?或者,我们是否应采取保守立场,假设人工智能律师始终仅限于一个(或少数几个相似的)法律体系?
从这个意义上讲,为了进行一次无偏见的总体评估,人们可以说,例如,大陆法系和普通法系在转化为能够处理和理解它们的人工智能系统时,可能会存在巨大差异。其原因在于,大陆法系具有更多的结构性限制,即其法律的形成、解释和执行的形式与程序,相较于普通法系更为有限。
对应法域。这种差异在很大程度上取决于先例的性质以及判例法所扮演的角色。
有人可能会认为,大陆法系在此方面具有优势,因为判例法在法律形成过程中所起的作用明显较小。然而,如果我们换个角度来看,先例通常被用作解决特定法律问题的具体方案,这实际上可能为转化为算法提供有利条件,因为它针对给定问题提供了一种更具体、更具数学性的解决方案。然而,无论哪种法律体系都正逐渐趋同,而且这种趋势在未来不太可能停止。尽管如此,所有这些观点仍存在很大争议,并最终将对人工智能律师的开发产生影响。
然而,目前我们无需深入探讨不同的法律体系或解释规则,就能认识到:要创建能够正确解释法律规范和文本的人工智能律师是一项具有挑战性的任务,而任何拙劣或平庸的实现都可能给依赖该系统的人带来不利影响。大多数法律翻译技术和方法的核心仍然依赖人为干预,包括提供支持和维护,在可预见的未来,这种情况很可能仍将持续。42
2.3 法律准备好成为算法了吗?
在回答法律能否被转化为算法这一问题时,我们深入探讨了数学与法律是否可以被视为同一事物的两面。让我们花一点时间来梳理这一点。请注意,以下是对数学这门学科的简化描述。数学由规则及这些规则的例外构成,充满了理论、定理和待解决的问题。亚里士多德认为,数学的特点在于其研究事物的方式(而非所研究事物的内容)以及其“抽象程度”。43
数学本质上是对假设及其内涵进行研究,并推导出“必然结论”。44正如卡茨和乌拉姆指出的,数学“能够解答一个问题,提出新的问题,并引导出新的观察”。45要成功解决数学问题,需要运用这些理论,并知道如何加以辨别,同时需要应用规则并运用数理逻辑。46任何数学问题的答案只有两种结果:正确或错误。这正是精确科学的优势之一,即其结果的可靠性。用最简单的话来说:如果数字出错,问题就仍未解决。
另一方面,律师们通常被认为普遍不喜欢与数学相关的事物。47抛开玩笑不谈,让我们来看法律:要成功解决一个法律问题,必须应用规范该问题的现有规则,必须运用相关理论并知道如何加以区分,掌握解释的规则和程序,审查遵循先例原则,并且最后必须运用逻辑,通过三段论——即从大前提、小前提推导出结论——来得出结论。因此,认为法律仅仅是一门规则科学,是对法律本质的严重误解。事实上,由于长期以来主流社会存在一种误解,公众通常错误地将法律视为一种以规则为基础的学科,完全忽视了论证在法律中所起的重要作用。48人们最初认为法律推理是一种类似于数学的公理系统,也就是说,规则等同于公理,因此其分析基于演绎推理。49但后来证明这种观点是不完整且部分不准确的——法律推理涵盖的内容远不止这些,而且法律推理中所运用的逻辑并非仅包含演绎推理那样非黑即白。50这可以说使得将法律翻译成算法的过程变得更加困难了一些。
与数学相比,由于法律问题涉及的变量及其具体情况多种多样,一个法律问题可能存在多种解决方案。因此,一个法律问题可能有一组解决方案,而法律学科允许不同的视角,并且该问题的讨论可以通过多种方式解决。51
法律究竟能否转化为算法,这的确是一个挑战,这一事实已得到该领域其他研究人员的证实。52 这些困难最终源于论证在法律中的重要作用:争议终究是通过提出一个更符合相关法律规定、更具说服力的论点来解决的。53 此外,法律属于社会科学,而数学则属于自然科学,这或许正是我们看到的最大差异(也是最大困难)所在:尽管自然科学及其学科可以被量化,但它们也具备一定程度的“脱离”性,54 而这种特性在社会科学中并不存在,因为社会科学与特定的系统密切相关,并依赖于特定社会背景下的实际情况,因而使其更难以标准化,也更难从其产生和运作的现实环境中“脱离”出来。55 这与上文提到的法律体系之间的差异,以及解释上的差异紧密相关。
我们最接近将法律规范翻译为公式的尝试出现在形式道义逻辑领域,该领域通过数学方法研究法律规范。57这为我们在此讨论的翻译问题提供了可能性,但实现起来极具挑战性。鉴于法律规范本质上属于“开放结构概念”58,这意味着它们不能仅从字面意义上来理解,即不同的因素会影响规范的解释和定义。59我们可以利用大量常规的基本法律概念来证明语境在这一方面至关重要——即使法律文书分类也可能因司法管辖区不同而有所差异,而某些法律概念的含义则取决于其与其他要素之间的语境关系。60然而,有观点认为,借助自然语言处理技术可以实现对法律概念的映射——该技术已足够成熟;这一目标可通过法律术语表和词典来协助完成。61这无疑是一项庞大的工作,且很可能需要逐个司法管辖区进行。
3 机器伦理
如果我们乐观地假设上述讨论的挑战已被解决,并且法律与技术均以最可行且无障碍的方式允许人工智能律师的存在,那么我们就可以转向创建人工智能律师所面临的最后一个挑战:伦理问题。本章节探讨了新兴的机器伦理领域,在此过程中提到了该领域中各种讨论与辩论的方面,并阐明了其重要性所在。文中提及阿西莫夫机器人三定律,试图证明这些定律虽可能是一个良好的开端,但并不足以应对当前的挑战。
显然,本章节讨论的机器远未达到可开发的程度,这一想法在短期内可能更适合出现在好莱坞电影中。然而,这并不意味着从长远来看我们不会朝这个方向发展:完全自主的决策机器将作为律师、医生等角色工作。如果一台机器要进行决策并实现自主化,那么它就需要伦理与道德的标准和规则来引导其行为。62
最后,提出了一种基于基础伦理原则的应对所有人工智能系统的概念,尽管目前仅作为一个概念。还有另一项挑战设想一台具备伦理行为能力的机器时的表情:工程的表情。从技术上讲,我们如何实现这一点?63关于这一话题的讨论必须尽早开始。
3.1 机器伦理作为研究领域
机器伦理领域的研究主要集中在“构建能够模仿、模拟、生成或体现伦理敏感性、学习、推理、论证或行动的机器的可能性。所涉及的机器可以是物理的或虚拟的;可以是静止的或移动的。”64如今,当我们谈论机器伦理时,大多讨论的是在伦理学课程中常教授的那种类似电车难题的自动驾驶汽车场景。65自主(即自动驾驶)汽车已成为新一轮伦理讨论的核心——其中大多数讨论都从电车难题的角度出发。面对电车难题情景时,我们必须在干预后有多少人将因此死亡之间做出选择。
自动驾驶汽车出现后,这场伦理讨论的发展表明,电车难题并不能代表我们在为自动驾驶汽车编程时所面临的伦理和道德困境。66 Nyholm和 Smids正确地指出,与电车难题中结果确定的情况不同,自动驾驶汽车在面临即将发生的事故时,几乎从未有过确定的结果。67此外,自动驾驶汽车不会像电车难题中的决策者那样在瞬间做出决定,而是会采用预先设定并已安装的道德准则,以规范其在面临imminentdanger时的行为。68此次对机器人律师话题的偏离,旨在说明在涉及广泛的人工智能相关发明时,我们仍需从多种角度审视其伦理与道德层面的问题,而人工智能律师不过是这类讨论中的一个议题而已。
机器伦理的全部目的就是找到一种方式,使人工智能的使用对所有人安全。69这意味着机器伦理的存在是为了确保人类不会因使用人工智能机器而受到伤害——即机器行为不应损害人类。70能够在机器中实施道德规则,以至于该机器可以完美地执行任务并做出决策,同时完全符合道德规范的理念极具吸引力,
我,非人类律师:人工智能在法律职业中的发展
3 机器伦理(续)
也许是因为作为物种的人类从未能够完美地做到这一点。71我们人类拥有大量的情感和自私行为,这些往往阻碍我们按照自己可能非常清楚的道德规则行事。72
从历史上看,人类对未知或不熟悉的事物表现出恐惧,导致对这些陌生元素产生非理性和敌对行为;例如,这曾引发严重的种族主义。73人类往往根据当下是否符合自身利益而选择性地使用道德规则,因此,受情感驱动可能会损害我们本应知晓的伦理和道德原则的应用。因此,由机器人负责某些道德决策或许更具吸引力——由于没有情感和人类程度的自主性,它们能够以更高的精确性应用道德规则。74
3.2 机器人伦理规则——我们能否使用阿西莫夫机器人三定律?
人们普遍认为,机器人目前的开发方式可能存在缺陷——这意味着,就其当前状态而言,由于机器伦理学这一学科尚未完全发展,机器人确实有可能对人类产生负面影响。75此前已经提到了一些相关实例(见上文)。在思考为机器构建伦理框架时,科幻迷的脑海中会立刻浮现出阿西莫夫的“机器人三定律”:76
第一定律
:机器人不得伤害人类,或通过不作为使人类受到伤害。
第二定律
:机器人必须服从人类给予的命令,除非这些命令与第一定律相冲突。
第三定律
:机器人必须在不与第一或第二定律相冲突的情况下保护自身的存在。
引人入胜且广受争议,这些法则往往首先给人一种似乎可行的错觉。事实上,它们的影响如此深远,以至于第一台工业机器人的发明正是受到阿西莫夫作品的启发。77这些法则为读者带来一种安全感——毕竟,受三大法则约束的机器人是人类的从属,而人类似乎毫无危险。78尽管这些法则在阿西莫夫的作品中契合得很好,但如果我们真的拥有了像他作品中所设想的那种完全有能力的人工智能机器,这些法则可能就远远不够了。阿西莫夫本人也承认,三大法则存在高度模糊性,这使他能够在自己的小说作品中探索这些漏洞。79这一点得到了机器伦理学研究者的广泛认同,认为这些法则在现实世界的应用中是不充分的;事实上,阿西莫夫正是通过他的小说来探讨其自身法则的各种缺陷。80然而,这些法则仍然对机器人学领域产生了深远影响。81事实上,已有大量文献将这些法则作为潜在的出发点进行讨论,本章节显然也是其中之一。
到目前为止,我们在人工智能的伦理与道德方面所获得的经验相当令人失望。尽管我们尚未有机会测试人工智能律师的伦理表现,但我们已经看到一些机器人和自主系统表现出强烈的歧视性行为。在制定人工智能代理行为规则时,我们必须确保这些规则能够有效控制其行为,并且尽可能减少解释空间;但同时,我们也必须确保人工智能代理具备相应的技术能力来处理法律,并以预期的方式加以应用,从而降低误用的风险。82
最终,我们意识到上述第一个问题的重要性:我们能否将法律转化为算法,而不会冒被错误应用或完全遗漏的风险?整个法律体系在不对其内容和意图产生影响的情况下,是否能够被移植到人工智能系统中,这一问题进一步延伸为:我们能否事实上为人工智能系统制定法律,以确保其遵守我们施加的伦理及其他规则。如果我们知道阿西莫夫的法则存在缺陷,那么我们必须找到有效的方法,将法律和道德规则融入算法之中,而这正如上文所述,将是一项挑战。
3.3 为何要为人工智能律师创建伦理限制?
伦理与道德是法律职业中不可或缺的宝贵组成部分,律师在日常工作中受过运用这些原则的训练。这一理念已深深植根于该职业之中;这意味着,纯粹的法律研究——例如拥有一个自主系统,能在极短时间内梳理海量数据以获取特定结果——只是工作中的一个有益补充,但它仅会在将这些搜索结果实际应用时,目前法律市场上的人工智能(参见下文)尚不具备像人类律师那样在法律研究等法律工作中实施道德或伦理判断的能力,这或许会让全球的人类律师松一口气。83
值得考察法律职业的这一方面,因为它具有重大影响。可以说,在法律职业中,只有法官才应当在工作中保持中立、无偏见且不受此类冲动的影响——而律师则代表诉讼中的一方,从技术上讲并不被禁止持有种族主义或偏见,尽管这种想法令人反感。此外,我们必须记住,法律具有教导性特征——它旨在教育,其内容背后通常蕴含着道德价值。这无疑意味着所有律师都在塑造法律格局方面发挥着影响,从而承担着改进法律格局的创造性角色。这一点与道德行为准则的改进密不可分。
因此,在这种情况下,我们可以认为人工智能律师也不必完全消除偏见,而是必须能够区分这种行为是否会影响其作出正确决策以及遵守规范法律职业的道德规范。突然之间,似乎更容易确定应为人工智能律师设定哪些普遍且基本的伦理约束,以使其默认具备伦理性。这正是我认为投入大量精力研究和开发适当的伦理框架至关重要的原因,无论人工智能系统是在法律领域还是其他领域(例如,不难想象人工智能机器在医疗系统中的伦理影响之巨大)。
这是一个在我们进一步推进人工智能发展中极为重要的领域,我认为我们应该尽早解决这一问题。在各个层面上释放可能加深社会歧视的人工智能系统,尤其是决策类人工智能系统,将对社会造成极大的危害,从而逆转全球反歧视工作的进展。
3.4 公平性设计
如果这些机器具备比人类更智能的能力,84如果这些机器被赋予基于数据处理做出决策的任务,或者在我们的案例中,被委以提供法律建议和代理的任务,那么我们就需要它们具备适当的伦理敏感性。所谓“适当的伦理敏感性”,我的意思是,这种敏感性可以说应当优于人类的敏感性,但这一想法更具理想主义色彩,可能需要多年才能实现。从短期来看,有必要明确不同情境和问题在人工智能系统中的表示方式,以便其能够对这些问题应用符合伦理的解决方案。
我在此提出的主要观点是采用“设计公平性”——这一术语借鉴了数据保护法及其设计保护隐私原则,85这意味着所有人工智能系统都应具备适当的伦理敏感性,以消除基于任何理由的偏见或歧视。这需要从人工智能系统的创建初期就开始实施,从而确保全球任何地方的系统都不会基于任何歧视性理由对人们加以区分,并确保机器伦理的愿景得以保持:人类不会因使用人工智能而受到伤害。然而,至关重要的是要记住,旧有的制度和原则(法律、伦理或其他方面)会随着时间推移而演变,以适应社会变化,本章节的前提并非要对伦理采取一种静态的方法——恰恰相反,我们必须抓住机器伦理领域尚处于发展阶段所带来的机遇,真正致力于在此领域内创建可持续且恰当的伦理解决方案。至少,我们有责任将这一目标贯彻到底。86
最终,我们的生活品质将取决于我们为那些终将占据我们现今所知生活很大一部分的机器所设定的伦理原则、限制和敏感性。87我们不希望这给人类带来负面影响,而且我认为也并非必然如此。只要现在在创建这些高级人工智能代理的初期阶段付出适当的努力,我们就有可能看到知识、技能以及道德与伦理以比我们最初设想的更有益的方式发展。88从这个意义上说,我们想起了阿西莫夫的故事“证据”,该故事极大地启发了本章节以及关于完全自主的人工智能律师的愿景。在试图判断拜尔利先生究竟是机器人还是人类时,出现了一个有趣的妙语,涉及机器人本性与人类本性的对比。问题涉及机器人与人类之间心理差异,而以下回答则让我们洞察到关于机器人伦理约束的思考:“[机器人和人]世界不同。机器人本质上是正直的。”89
我们在此采用的前提同样如此——我们开发的机器人及所有人工智能系统,必须在其系统核心内置一定程度的伦理约束,以确保其能够恰当地执行任务,特别是当它们担任律师或医疗保健提供者时,并消除歧视的可能性。因此,如果能在这一变革的初期就着手进行这些努力,从长远来看将会带来更积极的结果。这并不是说现在就开始这一过程就能构建出毫无缺陷的人工智能律师(医生、士兵等),但错误将更容易被发现且更早被察觉,从而有更大的机会得到纠正。
我这样说的同时,充分意识到我所讨论的伦理确实涉及一些我们尚未完全开发的事物,从这个意义上说,这种方法在人工智能代理的进一步发展中存在不完整性。最后,所有这些不可避免地引发出另一个问题:如果我们的人工智能律师如此技术先进、智能,并且比人类更好地遵循道德和伦理规则,它们是否也应该拥有自己的权利?如果应该,那么是哪些权利?遗憾的是,我们必须暂时搁置这个问题,因为无法在本章节的范围内对此展开详述,但这确实是一个值得讨论的话题——它推动了康德论点的发展,即从长远来看,为了人类的进步,人类必须以正确和公正的方式对待其他人类以及其他物种。90
这些代理始终如一地应用更高的道德准则,有可能整体上改善社会——实质上是通过改进我们自身对道德规则的应用。91这源于一个事实:人工智能不具备任何情感,因此不会因个人情况而在道德规则之间进行选择或偏袒。
4 想象“非人”律师
本章探讨了人工智能目前在法律职业中的应用方式,同时阐述了人们对这种技术在未来几十年内将如何影响该职业的普遍看法。此外,本章进一步设想了一位未来的AI律师,能够不受限制地独立开展法律工作。读者或许会疑惑为何要进行这一思想实验——但答案显而易见:法律是一个不断增长、内容庞杂的法规体系,日益难以驾驭,全球各地的司法系统都深受饱和之苦,而法律专业人士的工作方式在很大程度上仍与过去长期保持一致。92
此外,随着社会不断迈向旨在赋能和提升我们生活的技术进步,我认为法律没有理由落后。事实上,有人可能会认为,拒绝适应与创新可能对社会整体以及作为社会重要支柱之一的法律带来一定程度的危险。我们必须适应,变革我们的运作方式将使我们受益,并让正义惠及所有人。93
4.1 目前我们如何使用人工智能在法律中的应用
尽管法律领域在采用新技术方面从未享有盛誉,94我们至少已经踏上了将人工智能融入法律职业的征程。从事人工智能与法律研究的研究人员长期以来对这一领域发展的缓慢步伐感到某种程度的沮丧。95然而,人工智能与法律领域的大多数努力一直集中在利用人工智能更好地向公众传达法律规范,即提高公众对法律的认知和理解水平,从而增加那些需要法律建议和了解法律规范但可能不具备经济能力负担当前系统下此类服务的人数。96
这是一个重要的步骤,因为它试图解决将法律转化为算法的难题。此外,在法律领域(及法律职业)中哪些方面可以被转化这一问题上,人们正确地观察到,律师的工作在很大程度上属于信息处理,可以在一定程度上实现自动化97,如果我们从旨在提高效率和更全面覆盖每个案件主题的角度来看,这种自动化就更具吸引力。现阶段这意味着更多繁琐工作的自动化,例如文件审查和信息检索98。
到目前为止,人工智能与法律领域在开发更高级工具方面的进展相对缓慢,尤其是与其他人工智能应用更为广泛的领域(如Siri和Alexa等虚拟助手、机器人等)相比。有人认为,这种发展缓慢的背后存在诸多原因。99主要原因包括:将法律及其法律职业中的各种角色,以及其概念、规则、理论、判决和解释转化为能够替代律师的系统所涉及的巨大复杂性;律师事务所和律师提供服务的传统计费方式;以及正如本文反复强调的,律师必须从头到尾参与这一开发过程,并且在这些系统的实际运作过程中,包括其维护和更新,也必须发挥关键作用。100
法律初创企业不断涌现,以新颖的方式改变着我们处理案件、判例法、发现程序和合同审查的工作模式。101以ROSS为例:ROSS是目前专注于破产法、知识产权和劳动法领域的人工智能律师。你向ROSS提出问题,它将在一天内返回一份法律备忘录:ROSS(该系统)完成研究工作并生成备忘录的初稿,随后由人类进行审阅和修改。102据估计,ROSS能够节省每个案件需要二十到三十小时——这与传统律师事务所的运营方式相比发生了显著变化。103在不到一年的时间内创建,104 ROSS代表了迈向本章节所讨论的创建完全独立的人工智能律师的可能性的重要一步。
在撰写本文时,ROSS 似乎是全球最先进的人工智能律师,但事实仍然是,目前法律领域使用的大多数人工智能系统都属于某种形式的文档管理系统。105 ROSS 和其他咨询系统的共同点在于,它们不会对自己研究和分析的问题做出任何决策;相反,它们专注于分析由人类提供的事实情况,梳理相关法律和判例法,进而提出意见——通常是以基于相关法律、判例法和案件事实分析的支持性建议形式呈现。106 这实质上意味着我们有机会在任何法律领域创建真正优秀的法律助手,这些助手将显著减少我们梳理大量相关文本并整合关键信息所需的时间。这一概念似乎在律师中引发了两种反应:一种是对这种做法所具有的节省时间特性感到 genuine 兴奋,另一种则立即联想到失业的可能性。
我认为,这对法律职业而言是一种可喜的变革,不会导致失业,而将是对工作职责的重新定义。人们往往容易忽视的是,这些系统需要人工监督,或者说“训练”。人类律师将利用自身技能、专业知识以及对法律概念的理解,协助这些系统的发展。107这些系统将不得不在很长一段时间内被输入海量信息。即使在其完全运行级别上,正如汉克特所指出的,仍然需要人类律师将特定案件的事实情况转化为系统能够处理的形式,以便系统得以运作。108此外,法律绝非一成不变。作为一个充满生命力的有机体,法律经常发生变化和发展,这就要求必须对人工智能系统进行持续监督,从而再次需要一定程度的人为干预。109
4.2 未来我们如何在法律领域使用人工智能
如果我们希望摆脱人工智能在法律职业中的平庸应用(例如文件审查等),就必须让律师们接受人工智能进入我们这一领域的理念。110正如前文所述,关于人工智能律师的概念往往会凭空引发阴谋论,而这是法律职业需要进一步解决的问题:明确人工智能可以在哪些方面发挥极大作用,帮助应对时间限制以及人员配置问题,并在需要的地方加以应用。归根结底,关键在于宣传拥有人工智能法律助手(并最终发展为人工智能律师)所带来的益处,以吸引更多律师参与这些人工智能系统的创建。毕竟,如上所述,正是人类律师将负责创造、维护和开发这些系统。除此之外,我们还必须在神经网络领域取得重大进展,提升其模拟人脑的能力,才能从非人类律师身上获得更大的成效。111这绝非易事。
设想一个人工智能律师在没有任何障碍(无论是技术上的、伦理上的还是其他方面的)的情况下运作,在很大程度上就等于设想正义对所有人而言变得更加负担得起且更易获得。此外,人工智能律师的普遍存在和使用无疑将重塑法律职业,我认为这种变革在大多数情况下将是积极的。最终,这意味着将摆脱传统的按小时计费模式等旧有方式,转而采用新的商业模式,以体现通过智能使用人工智能所带来的法律工作效率的提升。
此外,有观点认为,将法律案件交由能够处理这些案件的人工智能系统将带来更高的公平性,因为这可以排除人为偏见,并且该系统能够处理比人类更多的材料,且所需时间显著更短。众所周知,如今获得司法救济正受到越来越大的影响。以数据保护法为例,我们立即注意到个人在与其共享个人数据的对象以及在此领域中自身权利方面的意识和知识严重缺乏。这种情况对任何人都不利——尤其是对普通民众而言,由于系统的复杂性、规则的不透明以及迷宫般的结构,他们可能并不了解自己的权利。112
在这方面,我想说两点:(i)我希望这将成为我们人类的未来——在全球范围内建立一个更加公平、可及的司法系统。降低法律费用,并向那些在当今世界无力承担法律建议的人提供可靠的法律建议。(ii)我将重申之前有人说过的话:这些系统在很大程度上仍然需要人类为其提供特定案件的 事实情况,这最终意味着该系统只能与人类向其提供的事实一样无偏见。113
正如我上文所述,法律的教导性特征在这一意义上将显得极为重要。从总体上看,律师的作用正是完善和打磨法律,使其不断改进并适应社会;因此,无论现在还是未来,在人工智能律师与人类律师共存的世界中,律师都将在灌输法律价值和完善法律文化方面发挥不可或缺的作用。然而,这种观点可以被视为一种良好的折中方案:一方面,有些人更倾向于使用非人类律师,以追求成本效益和效率;另一方面,有些人则不希望在有生之年失去工作机会。这一观点兼顾了社会对更便捷司法系统的需求,以及法律专业人士对日常就业的需求。
5 分割婴儿
在设想非人类律师时,面对当前挑战的规模,我们可以采用一种测试方法。这种方法乍看之下似乎更适用于人工智能法官,但它有可能让我们深入了解完全自主的人工智能法律职业者为了充分履行律师职责所必须具备的思维方式。
所罗门王与婴儿的故事广为人知,常被用于讨论为了揭示真相而采用的操纵性规则。114简而言之:在两名妇女之间发生了一起亲子纠纷,双方都声称自己是同一个婴儿的生母,所罗门王于是采取了最后且相当极端的方法来判断婴儿究竟属于谁:他威胁要将婴儿劈成两半,然后把一半给其中一个女人。在听到这个威胁后,其中一名妇女坚持要把婴儿让给另一个女人,以保住婴儿的性命,这一举动清楚地表明她才是这个孩子的亲生母亲。115就本测试而言,我们将假设所罗门的判决在此事上是正确的选择,并且不考虑基于诸多因素(例如证据的确定性和完整性问题,以及演绎推理和否定后件式等逻辑形式的作用)对此判决可能提出的种种质疑。116相反,我们将假设所罗门的判决中不存在任何未解决的问题,并将其视为无可争议的事实。
将圣经测试应用于一个未来主义理念的讽刺意味,我并非没有意识到。所罗门的判决适用于这种情况,是因为这是一个证据脆弱(如果有的话)且相对简单的案例,其结果并非纯粹法律讨论的产物,而是具有其他含义,包括逻辑、概率以及所罗门的敏锐判断力,尤其是他著名的智慧。117我们可以提出第一个问题:如果站在这些妇女面前的君主不像所罗门那样“智慧”,此案的发展和最终结局是否会有所不同?如果审判者是汉谟拉比,结果是否也会一样,从而适用同态复仇法?
这些问题表明,得出所罗门的结论并没有一种普遍适用的方法,使用他所采用的“宝剑判案”方法也没有一种普遍可行的方式。这意味着他的推理几乎没有法律依据,其决定和方法是基于一种直觉,或者说是一种情感智能。
人工智能法官能够做到这一点吗?由于机器人天生缺乏情感,对此问题的直接回答显然是否定的。机器人能否整理出一系列有助于实现这种推理的经验呢?似乎不太可能。如果一个人工智能法官面对像所罗门那样两个女人争夺一个婴儿的情况,我们可以推测如下: 人工智能将能够处理女性的请求以及确定母性的法律问题。人工智能法官将能够识别当前争议的原因、主体和核心。这将通过机器人理解争议和法律规范概念的能力来实现。我们还可以假设,人工智能法官将能够为争议各方设计测试,以确保使争议更接近解决方案。这种能力可能基于一种决策和演绎推理的概念,该概念从设计阶段就被植入人工智能法官中,使其具备权衡不同选项并选择与案件最相关选项的能力。
此外,我们可以假设,基于前两种能力,人工智能法官将能够判断争议双方中哪一方的论证更为有力。这也将基于其将各方论证与相关法律和伦理规则进行交叉比对的能力。然而,对于所罗门所面对的案件作出判决,似乎需要超出人工智能法官所能执行的能力。所罗门并未使用特定规则来确定谁是母亲,而是运用了他洞察人心的能力以及积累的经验。118
面对这样一个案件,人工智能法官的挑战在于其系统的完备性——该人工智能法官必须在技术上极为先进,才能运用基本的常识来作出判决。这对人类来说也不容易,人们必须经过适当的训练才能做出某种类型的决策——不仅是在法律领域,总体上都是如此。因此,这可能是人工智能在法律领域的一个局限性。也许我们将能够创造出可以进行法律研究和法律代理的人工智能,但就目前而言,判决和类似决策似乎仍超出我们的能力范围,因为这需要开发者找到方法,将情感和常识等人类因素与更为结构化的规则体系相结合并加以实现。
6 结论
本章节深入探讨了关于法律职业未来的一种畅想。然而,我确实理解,有些人可能认为这更像是一种噩梦般的场景,但我希望这种普遍存在的观点最终会逐渐消退,并被对人工智能律师更为乐观的看法所取代。作为一次思想实验,本章节涉及多个学科领域,旨在探讨我们在尝试创造机器人律师时可能面临的各种挑战。
本章节探讨的第一个问题是将法律转化为算法的(不可)行性。这一问题打开了一个充满可能性、困境和待解决问题的潘多拉魔盒。其中,人们考虑了此类转化过程中的语言层面因素,但迄今为止,我们尚未成功将法律的逻辑、语言和灵活性完整地映射到代码中,以帮助我们变革法律职业。目前最先进的成果仅包括文档处理系统、信息检索系统以及像ROSS这样的研究系统。
在追求创建一个功能完备的人工智能律师的过程中,将会遇到各种性质的挑战,例如:寻找愿意参与开发过程的律师,寻找愿意尝试该技术的律师事务所和法律实践机构,推动自然语言处理以及信息技术的整体边界,以实现这一构想的技术落地,说服律师和公众真正使用这些人机律师,最后,确保机器伦理和道德水平达到令人满意的程度,从而允许这些非人类律师就法律事务向我们提供建议,并在法律案件中代表我们。考虑到这些因素,法律的未来将是什么样?
人们必须始终牢记,创造人工智能律师将是一个漫长而艰难的过程,如果这甚至是一种可能的话。本章所涉及的挑战是巨大的,而且到目前为止,我们还没有一套行之有效的方案,因此这一过程必然是一个试错和循序渐进的过程;首先,我们将完善AI法律研究和信息检索系统的使用,扩展它们能够运作的法律领域,以便为法律专业人士的日常工作提供实质性帮助,缩短完成任务所需的时间,同时通过这些系统对相关文本进行深入挖掘并返回结果的能力,提高所提供的服务水平。
这本身将颠覆法律职业,并有可能使我们更接近为更广泛的人群提供法律服务,而不仅仅是为那些能够负担得起顶级法律建议的人。这一阶段的特征是自然语言处理技术的进步,这将有助于我们最终实现创建一个完全能胜任的 人工智能律师 的目标。在此阶段,我们必须确保采用适当的 翻译与处理技术。人类律师 仍将在整个过程中深度参与,不仅在这些 系统 的开发方面,还包括协助其运行。到目前为止,一切顺利。这种情况将持续下去,直到我们达到一个关键节点,从而进入构建 人工智能律师 的下一个阶段。
下一阶段将是机器伦理的阶段。我们必须审视将伦理与道德植入人工智能律师(或人工智能法官)的必要性,在接近成功之前,我们可能会在尝试创造完全符合伦理的人工智能律师方面失败数次。这是因为人类在此阶段仍将深度参与,可能导致错误的伦理原则和规则被植入人工智能律师中。我提出一个名为“设计公平性”的概念——意味着将在任何人工智能系统中部署一套适当的伦理标准,无论其是否处于法律领域。这是实现机器伦理目标所必需的最低要求,毕竟人工智能不应给人类带来不利影响。然而,问题仍然存在:我们是否真的需要完全符合伦理的人工智能律师?就人工智能法官而言,偏见当然绝不应被接受,此类系统也不应被投入使用;但对于普通律师而言,高标准的伦理是必要的,还是仅仅是一种理想化的情景、一种锦上添花的需求?这仍可通过采用“设计公平性”概念并进一步发展以适应法律领域的人工智能代理来解决,从而为它们确立必须遵守的必要伦理规则数量。
法律的未来并非黯淡——律师及法律专业人士仍将在法律领域人工智能的创建、维护和改进中发挥重要作用,这意味着整个行业有充足的时间来适应完全自主的人工智能律师运作的现实。即便如此,这可能仅仅是对人类律师工作职责的重新定义,而非人类律师的消亡。人工智能法官的情况更是如此——根据所罗门测试,我们已经看到人工智能代理在裁决过程中面临的诸多挑战,其中一些挑战很大程度上源于人类运用常识和情境化处理能力的优势,至少就目前而言,我们尚难想象人工智能能够达到同等水平。
总之,如果全世界都在拥抱人工智能,我看不出法律为何要落后。法律领域的发展,以及随之而来的法律职业的变革,最终可能对社会整体具有重要价值,并有助于缩小当前困扰世界的获得司法救济差距及其他不公正问题。
1015

被折叠的 条评论
为什么被折叠?



