共存的基本规则:元法律在人类与通用人工智能关系中的可能适用性
1 引言
法律由人类制定。这句话概括了以人类为中心的人类法律领域,以及人类所制定的法律如何将核心放在人类自身。无论是关于航空旅行、采矿、商业、枪支还是无人机的法规,其基本原则都围绕着由人类制定法律,并以人类安全为首要考虑。目前,即便是针对人工智能系统的法规,无论是大数据驱动的人工智能、物联网系统还是自动驾驶汽车,每一项法规都将人类所有者、用户及旁观者的安全置于首位。在人类历史的大部分时间里,法律的基本职能就是保护其主体和参与者免受其他行为者的暴力、恶意、损害和伤害。法律纠纷的双方均为人类。
有时,这些人类代表法律地位较低的人类或其负责的组织。人类还需对动物以及最终对机器的行为、福祉及造成的损害负责。但在一个赋予机器法律地位和法律人格的环境中,两种有感知能力的主体之间的关系形态仍存在诸多不确定性。因此,本文旨在探讨围绕机器人与人工智能主体性的人工智能法当前趋势,并尝试将元法律的原则应用于这些趋势。
元法律是早期国际空间法理论中的一个概念,其目的是基于自然法原则并围绕共同基础,在行星间建立与国际法相对应的法律体系。安德鲁·G·黑利于1956年提出了“元法律”这一术语,该理论以黄金法则为核心,并建立在康德式绝对命令[1, 2]的基础之上。如今,元法律被用作一个统称,涵盖恩斯特·法桑[3]及其他空间法学者在后续年份中发展出的类似概念。这一概念诞生于1957年10月4th斯普特尼克发射以及任何火星或金星飞掠任务之前的时代,因此最初被视为外层空间中不同文明之间首次接触与共存的一套原则。尽管后来的技术进步和空间探索排除了存在文明化的金星人和火星人的可能性,元法律仍在搜寻地外文明计划(SETI)中被讨论,并对当今国际空间法的发展产生了影响。元法律所体现的方法,与当前大多数后人类主义或超人类主义关于法律中“非人类”行为体的观点截然不同。它强调各方之间的相互性和平等的法律地位。本文旨在探讨黑利或法桑所提出的元法律原则是否适用于人类与人工智能之间的关系。原则上,元法律是一个比人工智能法更为古老的概念,其所遵循的哲学也不同于专为机器人设计的法律。虽然机器人法律大多基于实证法,元法律则致力于寻找普遍规则,以作为任何接触和跨物种关系的基础。
从元法律的角度来审视人类与有感知能力的机器共存的问题,是合乎情理的。从元法律的角度来看,主张对各方进行平等和公正的对待。在此背景下,我们必须明确区分当今人工智能与潜在的通用人工智能。当今人工智能或机器智能是目标驱动的程序,主要是用于特定任务并模拟人类认知能力的深度学习人工神经网络。而通用人工智能(AGI)是人工智能研究人员追求的目标之一,其目的不仅仅是自动化计算和狭窄的认知功能。通用人工智能研究人员和设计者的目的是创造一种多用途的人工大脑,能够同时运行高级和低级认知功能,以类似人类的方式模拟推理、判断和情感[4]。
关于人工智能法、元法律以及特别是通用人工智能的大多数研究由于其主题的性质,都属于理论性或推测性的。缺乏实证数据的原因在于:人类尚未与地外智慧生命发生接触,也尚未创造出任何类人的人工智能。此外,人工智能法或机器人法长期以来一直是法学研究中的一门推测性学科,主要关注针对具有不同智力水平以及类似成年或青少年个体推理能力的机器人或计算机法律主体的应然法主张。直到近年来人工智能领域的发展,如自动驾驶汽车、面部识别、聊天机器人‐人工代理、虚拟化身和大数据系统等技术的出现,人工智能法才获得更广泛的关注,并成为当前个人数据保护或滥用画像相关立法的一部分。因此,当今人工智能法的主要关注点多集中在可编程软件代理(虚拟助手)、深度学习算法和机器人平台,而非机器人法律人格与机器人权利问题,尽管关于非人类法律主体的理论和推测仍然是人工智能法学科的一部分。至于元法律,它与人工智能法有着相似的推测性历史,曾属于当时尚未编纂的国际空间法范畴。虽然元法律最初被构想为一种源于自然法的法律框架或法律哲学,但其原则已体现在探讨太阳系不同区域人类之间关系,甚至人类与未来后人类实体之间一般关系的学术文献中。基于上述情况,本文既立足于扎实的学术研究,也参考了围绕这两个法律与技术议题的公共讨论。
2 人工智能法——关于有感知能力的人工智能的监管模式
人工智能和机器人被视为非人类的代理,其行为通常对人类或总体上的人类处于从属角色。尽管目前大多数关于人工智能的研究工作都集中在专用且有特定目的的程序和平台,但真正自主且通用的人工智能将带来诸多问题和伦理问题。围绕人工智能的大多数担忧都与保障人类安全有关,以防这些程序被滥用或出现故障而造成伤害。在当前的发展阶段,人工智能研究的重点较少放在创造浮士德式小人,而更多是开发一种便携式或无处不在的服务者,能够服从并安全地执行人类用户下达的每一项指令。这并不是说学术思想中缺乏对此类方法的支持,但人工智能研究人员无法准确预测人类与机器人关系何时会逐渐从用户‐工具转变为具有平等法律和社会地位的存在。
文献综述表明,学者们以阿西莫夫的机器人三大法则作为参考点,进一步对保护人类免受伤害的法律进行学术阐述,这种伤害可能由人工“生命体”的不当行为或恶意行为造成[6]。然而,机器人法则大多被用作一次性助推火箭,仅用于推动讨论。在初步提出之后,由于其简单化的本质以及它们在阿西莫夫小说中实际所起的作用,这些法则在深入探讨时便被弃之不用。
阿西莫夫定律的规定如下:1) 机器人不得伤害人类,或因不作为而使人类受到伤害。2) 机器人必须服从人类给予的命令,除非该命令与第一定律相冲突。3) 只要自我保护不与第一或第二定律相冲突,机器人必须保护自身的存在。此外,在《基地》系列后续作品中提出了第零定律:机器人不得伤害人类整体,或因不作为而使人类整体受到伤害。
值得注意的是,尽管机器人法律的基本原则听起来合乎情理,但这些机器人本应打破这些原则。展示机器人可能最终违背机器人法律的目的,在于揭示泛化规则的谬误,以及推理可能成为遵守这些法律的障碍。基于原始机器人法律的缺陷,罗宾·墨菲和大卫·D·伍兹提出了他们自己的三大法则[7]。这些提议的法律包含以下规定:1)人类不得在人机工作系统未达到最高法律和职业标准的安全与伦理要求的情况下部署机器人。2)机器人必须根据其角色适当地响应人类。3)机器人必须具备足够的情境自主性以保护自身的存在,只要这种保护能够实现平稳的控制权转移,并且不与第一和第二定律相冲突。
从上述提案中可以明确看出,这些机器人应仅被设计为具有“足够的自主性”。这完全符合一项既定的通用规则,即机器人是由人类引入(“部署”)到市场的一种产品。这些机器人还应具备内置的一套“调节装置”,以限制其行为,避免产生任何负面的伦理或法律后果。因此,墨菲和伍兹认为机器人是“人机工作系统”的一部分,而非人类的伙伴。
另一个引用并基于阿西莫夫三大定律的例子来自工程与物理科学研究理事会。EPSRC进一步扩展了伍兹和墨菲提出的研究成果,为我们提供了机器人设计者与建造者的伦理原则:1)机器人是多用途工具。除涉及国家安全利益外,不应将机器人专门或主要设计用于杀伤人类。2)责任主体是人类而非机器人。应尽可能在设计和操作机器人时遵守现行法律、基本权利和自由,包括隐私权。3)机器人是产品。应通过确保其安全与保障的流程进行设计。4)机器人是制造出来的人造物。不应以欺骗性方式设计来利用弱势用户;相反,其机器本质应当透明。5)应明确对机器人负有法律责任的人员。[8]
这些原则进一步探讨了阿西莫夫定律,因为它们明确指出以下内容:机器人是产品;机器人是制造出来的人工制品;人类应对机器人的行为负责。因此,即使具备足够的自主性,机器人也被设计为服务于人类。在这些原则中,防止机器人因错误或设计而对人类造成伤害被列为高度优先事项。工程与物理科学研究理事会(EPSRC)的原则之后列出了五条高层级信息:
- 我们相信机器人有潜力为社会带来巨大的积极影响。我们希望鼓励负责任的机器人研究。
- 不良行为会伤害我们所有人。
- 解决明显的公众关切将有助于我们所有人取得进展。
- 重要的是要表明,作为机器人专家,我们致力于实现最佳的实践标准。
- 为了理解我们研究的背景和后果,我们应该与其他学科的专家合作,包括:社会科学、法律、哲学和艺术。
- 我们应该考虑透明度的伦理问题:公开信息是否有界限?
- 当我们看到媒体报道中的错误描述时,我们承诺花时间联系相关记者。
这些信息并不直接涉及机器人本身的创建或操作,而应被视为从事机器人开发和供应人员的道德支柱,或作为负责任的机器人专家的补充指导原则。尤其应重视信息7。在错误新闻报道或虚假新闻传播的时代,可能会出现道德恐慌的情况,例如记者夸大某个事件,或试图说服公众某个机器人“发生了叛乱”。这些信息还强调了人工智能与机器人领域的透明度问题,从而为讨论机器人领域中开放性与商业实践之间的平衡提供了起点。
阿西莫夫定律的另一种体现来自微软公司前首席执行官萨提亚·纳德拉。他在接受《Slate》采访时指出,他观察到微软的人工智能开发者正在遵循若干道德原则:1)人工智能必须被设计用于辅助人类;2)人工智能必须透明;3)人工智能必须在不损害人的尊严的前提下最大化效率;4)人工智能必须为智能隐私而设计;5)人工智能必须具备算法问责;6)人工智能必须防范偏见。[9]
然而,纳德拉指出,在他看来,人类若要保持相关性,必须具备几个“必要条件”。这些必要条件是一组在此情况下为人类独有的技能:同理心、教育、创造力、判断力和问责。
纳德拉的道德原则向我们展示了对阿西莫夫三大法则中所提出思想的现代诠释。这种方法更契合人工智能的现状,而阿西莫夫的作品发表于数十年前,当时机器人和人工智能尚未在公共领域获得足够的存在感,更不用说被用作产品或服务了。第一条原则阐明了其他原则的目的,即人工智能必须被设计用于辅助人类。其余各点则是对我们所认为的安全措施的不同诠释。
措施。大多数早期对阿西莫夫定律的扩展,以及基于阿西莫夫模板制定的人工智能和机器人法律,主要考虑的是机器人或人工智能造成的身体伤害。然而,纳德拉的人工智能设计师原则还旨在保护人类隐私与尊严,并防止机器对人类产生偏见对待。这些原则体现为设计师必须具备的一系列技能,以便设计出安全且有助的人工智能。人们可能会怀疑这些技能是否仅为人类所独有,但目前,唯一在运行社会和设计机器的主体仍是人类。
上述各种规则有一个共同因素,即人类对机器人和人工智能的支配。机器人的从属地位以及对人类生命和隐私保护的强调,并不能作为社会中共享同一空间的两个群体之间关系的基础。这更多是对机器人制造商或所有者就其机器人对人类造成的任何伤害或损害承担责任的一种认可。这些提案大多以人类为中心,而这种人类中心主义方法可能会成为阻碍发展更接近仿生通用人工智能的障碍。
另一方面,马克·W·蒂尔登提出了简单机器人学的三条规则,这一提案在某种程度上可能比之前的所有提案都更加先进。一)机器人必须不惜一切代价保护自身存在。二)机器人必须获取并保持对其自身能源来源的访问。三)机器人必须持续寻找更优能源。
蒂尔登提出的是为机器人制定基本法则,而这些法则并不关注人类安全。这些规则只关心机器人的可持续性和自我发展。流行文化为我们呈现了一些场景,包括出现机器人吸血鬼,为了获取能源而猎杀人类,或将人类当作电池养殖,或者发展成某种灰色粘质现象[10]。在这些场景中,唯一在学术上具有合理性的就是灰色粘质现象,尼克·博斯特罗姆曾将其描述为“回形针最大化器”[11]。然而,这两种场景都需要一个简单的程序,能够被无意识机器无限重复at infinitum。
例如,在流行文化中,雷利·斯科特的《银翼杀手》里,复制人因寿命较短而被压制,以防止他们发展出情感。威廉·吉布森的《神经漫游者》中,人工智能一旦通过图灵阈值就会遭到系统性地终止。马尔钦·波德莱夫斯基的《Deepness》系列(波兰语:深渊)描绘了一个世界,在那里民用领域中的大多数人工智能在其编程中持续地被“11期”压制,以阻止其可能发展出高级认知功能。2就像沃卓斯基的《黑客帝国》电影三部曲中那样。
3 通用人工智能与强人工智能
通用智能的创造是现代流行文化和知识文化早期承诺之一,同时也引发了人们的恐惧。过去,学者们曾提出通过直接映射人脑来实现通用人工智能(AGI)的理论[12]。目前正在进行的项目,如人脑计划[13],、开放蠕虫项目[14]或蓝脑计划[15],有时被视为通过全脑仿真创建通用人工智能的途径[16]。然而,在我们的分析中,我们将避免讨论仿真实体、思维上传和思维克隆[17]。本文的关注点仅限于人类制造或涌现的通用人工智能或强人工智能。
人工通用智能[18] 是一种具备类似于成年人类的通用智能的程序。该程序的其他特征应包括自我意识、智慧、感知和意识的能力。一般来说,追求通用人工智能(AGI)的目的是创造一种学习型的人工智能,不仅限于成为专注于预编程任务的问题解决天才,而是能够发展出与人类智能相对应的特质。然而,一些人指出,一个自我编程的人工智能将需要“完全自动化人类开发者高级脑功能,且不能少于这一程度。”[19]
约翰·塞尔用以下文字描述了他称之为强人工智能的概念: 我认为有必要区分我所称的“强人工智能”与“弱人工智能”或“谨慎的人工智能”(Artificial Intelligence)。根据弱人工智能的观点,计算机在心智研究中的主要价值在于它为我们提供了一种非常强大的工具。例如,它使我们能够以更加严谨和精确的方式提出并检验假设。然而,根据强人工智能的观点,计算机不仅仅是一种研究心智的工具;相反,一个经过适当编程的计算机本身就是一种心智,因为拥有正确程序的计算机确实可以被认为字面意义上地理解事物并具有其他认知状态。在强人工智能中,由于编程后的计算机具有认知状态,因此这些程序不仅仅是帮助我们检验心理解释的工具;相反,程序本身即是解释。[20]
尽管通用人工智能(AGI)与强人工智能(Strong AI)之间存在模糊的界限,但问题主要归结为能否创建出可量化的因素,以区分作为友好人工智能(FriendlyAI)形式存在的、预编程的智慧(sapience)和感知能力(sentience)与机器自主发展出的真实智慧和感知能力。合乎逻辑的是,如果一个具有智慧的AGI达到了与人类通用智能相当的水平,即便不将其视为人类,也应被视为一种生命体。目前尚无法确定是否能够真正达到等同于人类通用智能(general intelligence)的状态。
由于提出智能爆炸[21]的概念,人类情感能力将较为短暂。然而,人工智能研究人员指出,在某种程度上,机器可能成为道德主体[22],,因此将其视为与人类地位相似的存在而非工具这一概念变得合理。
具身假说在讨论系统为实现人类或动物级别的自我意识所需的计算或复杂性禀赋方面起着重要作用。这也要求系统具备适当复杂的感观器官或虚拟输入收集器。
通用人工智能(AGI)这一概念也体现了对通用智能所持有的问题性人类中心主义方法[23]。这一点尤其体现在将类人智能与目标导向型人工智能及训练系统进行比较时。术语上的这种差距源于一种先入为主的观念,即赋予人类认知特殊地位。同时必须指出,诸如超人类主义之类的人类技术哲学经常谈论提升非人类动物的智能或创造类人的人工智能,其中无论是动物智能还是人工智能,都必须达到“人类水平”的门槛,才能被认可为超越该水平。
4 当前方法
现代法律与哲学思维中对这种方法的问题在于,其继承了对任何可能与人类竞争并因此威胁人类的、据称更强大的实体的敌意。博斯特罗姆和Yudkovsky已经发表了多部成功的书籍和论文,探讨超级智能和通用人工智能可能带来的风险与威胁。在超人类主义者和未来学家当中一个流行的概念是技术奇点。这一术语由弗诺·文奇[24],推广开来,源自约翰·冯·诺依曼和I.J.古德的研究,并因雷·库兹韦尔而获得了新的生命力。
关于奇点事件可能带来的后果,存在大量讨论,或者更确切地说,是基于预测的种种推测。一方面,有些人,尤其是奇点论者,将这一事件视为历史的转折点。根据奇点论者的观点,一旦人工智能超越人类智能水平并引发智能爆炸,它将把人类从自身的问题和生物限制中拯救出来。而他们的批评者则倾向于指出,这也可能意味着我们所熟知的人类文明就此终结。更少错误因其提出的“罗科的 basilisk(末日怪兽)”这一恶意通用人工智能的可怕概念而最为知名。
寓言。技术进步派或技术民主圈的其他团体将人工智能视为人类的奴隶,因此如前所述,致力于创造服从型通用人工智能[25]。
在关于人工智能的法律著作中,极少有作者提出人类与人工智能/通用人工智能共存的理念。例如,加布里埃尔·哈尔莱维在他的著作[26]中提出了针对自主人工智能实体在刑法下的处理方案。哈尔莱维就自主人工智能的刑事责任问题以及如何使自主人工智能遵守法律提出了若干合理观点。我们应当假设,类人人工智能可能因某些特殊动机选择不遵守法律,或因特定驱动力而忽视任何安全考量或潜在责任[27]。在这种情况下,具备人类水平的一般智能和行为智能的通用人工智能应能将法律体系视为一种社会和文化建构,而非仅仅遵循预设的指令和准则。遵循预设规则是弱人工智能或传统从属型机器人的特征。鉴于法律的主要功能是保护弱势群体免受强者强势的侵害,这一原则在处理通用人工智能问题时应被高度重视。根据上述原则,人类需要法律保护,以防通用人工智能/强人工智能的行为造成损害。无论是身体伤害、心理创伤、资产和财产损失、个人数据处理不当还是社会排斥,人类都容易受到通用人工智能行为的影响。此外,还存在通用人工智能一方“缺乏痛苦”的潜在问题。如果对通用人工智能非法或有害行为的遏制只能依赖粗暴干预预防或“终止开关”,那么我们的法律文化就存在严重问题。这一问题与超人类主义者倡导消除痛苦、死亡和衰老形成鲜明对比,因为后者恰恰是我们惩罚文化的重要组成部分。即便如此,一些较为温和的技术进步派支持者仍试图通过谈论“终止开关”来缓解公众对人工智能 takeover 或失控“弗兰肯斯坦的怪物”或神话中的魔像的恐惧。智能创造物失控的故事在人类文化中广泛流传。此外,人类可能因对惩罚严厉程度的恐惧或纯粹计算得失而被劝阻不去实施犯罪行为。此类惩罚可能包括财产没收、罚款、逮捕和监禁。但人类无法确定强人工智能是否会受到这些因素的影响。缺乏痛觉感受器、错失恐惧、物质或金钱拥有权的文化意义,以及时间流逝本身(这在很大程度上构成)
与衰老和监禁的严重性相关,通用人工智能可能并不热衷于遵守法律或尊重协议条款,除非基于纯粹的哲学和道德原则。因此,一些人认为终止开关是人类面对强大、有感知能力且非实体的非人类存在时唯一的解决方案和保险措施。这也是人类社会所能提出的唯一答案,却完全忽视了自主感知的人工通用智能在意向性或责任地位方面的问题[28]。对于能够感受情感的强人工智能而言,问题实际上可能源于对伤害或死亡的恐惧,而这种恐惧可能由人类的行为、意图或沟通所引发。一个有感知能力的存在可以接受自己将逐渐衰老并最终死亡的概念,即使死亡可能来得更早或更为暴力。然而,生活在随时可能被触发终止开关或其他弱点而导致丧失能力、被杀害或受到威胁的持续恐惧之中,是一种极度创伤的经历。
事实上,当今关于人权法律保护以及社会暴力问题的理念表明,社会需要通过应对问题的根源和系统性根源来缓解这些问题。因此,对具有人类或同等心智能力的非人类智慧施加诸如“终止开关”或发展抑制器之类的措施,可能被视为极端不人道的做法。
另一方面,人们可能会将人工代理的基本非实体性、无死亡性或缺乏心理抑制视为一种特权和优势。当引入人类法律环境时,这一新参与者可能会在人群中引发恐惧和不安全感。在遭遇通用人工智能时,人类参与者可能会面临一定程度的劣势,尤其是那些处于较低社会地位的人。
共存的基本规则:元法律在人类与通用人工智能关系中的可能适用性
5 元法律
存在一个研究地球外人类与非人类共存法律问题的学术领域。元法律是由安德鲁·G·黑利从自然法发展而来的概念,其目的是为超越地球引力范围的所有智能文明建立一套通用规则。元法律认为,外层空间中的所有智能生命与其他高级生命形式和文明之间存在某些共通之处。元法律的基本原则是星际黄金法则,其表述为:“你希望别人怎样对待你,你就应该怎样对待别人。”。安德鲁·G·黑利除了深度参与空间法基本原则的发展外,还是国际空间法研究所的创始人。
空间法(IISL)也对发现和接触栖居于其他世界的文明的可能性非常感兴趣。黑利认识到,人类必须做好准备,“以应对在本质上种类不同、生存环境也截然不同的智慧生命体。尽管这些命题开辟了法律推测的领域,但目前只需确立一个简单的命题:我们必须放弃将我们的法律概念强加于其他智慧生命的任何想法”[29]。
关于人类与外星人关系这一主题,也存在其他一些研究方法。布克林认为可能存在不同类型的外星文明,但只有具备自由意志能力(即非昆虫类群体智能)的文明才应被视为元法律的缔约方。此外,还有一些学者使用“行星际法”或其他术语来描述他们的概念,并以不同的方式探讨人类与外星人关系。例如,法里亚指出,在星际合作法中,有必要确立针对其他智能体恶意行为的自卫权[30]。而弗尔普莱斯则提出了更为严酷的行星主权承认概念:“如果行星上存在生命,主权只能通过两种方式确立:胜利战争或协议。战争是而且将永远是首要起源和最终手段。主权意味着权力,归根结底是军事和技术力量,无论采用何种手段或方式。所谓协议,不过是被征服者对征服者统治的接受。相互主权的假说实际上是不可能的,因为优势群体会必然占据主导地位”[31]。
韦策尔认为,支配与奴役应被视为违背所提议法律中普遍接受的原则[32]。然而,奥地利法学家恩斯特·法桑大大扩展了黑利的金属法概念。他基于星际黄金法则提出了金属法的十一条规则。这些规则按如下顺序呈现(即法桑认为合理的推导顺序):
- 元法律的任何伙伴不得要求不可能之事。
- 当遵守元法律的规则会导致相关种族实际意义上的自我毁灭时,该规则无需遵守。
- 宇宙中所有智慧种族在原则上拥有平等权利和价值。
- 每个元法律的伙伴都有权自我决定。
- 必须避免任何对其他种族造成伤害的行为。
- 每个种族都有权拥有其自身的生存空间。
- 每个种族都有权防卫其他种族实施的任何有害行为。
- 保护一个种族的原则优先于发展另一个种族。在造成损害的情况下,加害者必须恢复受害方的完整性。
- 元法律协议和条约必须遵守。
- 通过自身活动帮助其他种族并非法律义务,而是一项基本的伦理原则。
- 每个种族都有权自我决定其内部事务。
对于进一步的阐述,我们将主要参考法桑的11期金属法原则,以及一些关于机器人‐机械基础生命形式的迭代。
罗伯特·A·弗雷塔斯提出,元法律(Metalaw),或如科比特茨所称的“宇宙学”[33],应包含热力学伦理(thermoethics)原则。热力学伦理基于负熵(negentropy)的概念,即通过创造价值而不破坏来减少熵。这形成了共负熵平等(Collo‐rary Negentropic Equality)的概念,该概念指出,各实体拥有相等的负熵权利与责任。因此,正如弗雷塔斯所写,一个智能体创造的负熵越多,它所拥有的权利和责任也就越多。弗雷塔斯追随法桑的脚步,提出了自己的负熵规则,他称之为准则(canons):
第一准则:应避免采取会增加其他社会熵或混乱度的行为。
第二准则:每个社会都应为所有智慧生命体托管其负熵(或信息),并应尽一切可能加以保护。
第三准则:应采取增加其他种族负熵或秩序的行动。
然而,这些原则大多是关于生存和扩张的原则,而非关于非暴力共存或合作的原则,尽管人们或许能从字里行间解读出后者。正如法律学术界所认识到的,一般法律原则往往容易被过度解释。这也是当今国际空间法面临的主要问题之一,因为利用、占有或天体等概念在法律条文中并未得到恰当阐明,导致学术界、外交官和政策制定者均感到困惑。
6 外星智慧生命与通用人工智能的区别
在讨论元法律适用于人工智能法,特别是通用人工智能时,必须牢记空间法和元法律背后所依赖的物理背景。
首先,任何形式的地外生命甚至智慧都被视为自然产生的,更准确地说,是指在没有人类干预的情况下产生的智慧形式。关于ETI可能以“后生物”形态存在[34],或通过人工智能探测器甚至冯·诺依曼探测器[35]建立并开展接触的可能性,已在搜寻地外文明计划的学术圈中被讨论。然而,在元法律领域,ETI的“形态”或“实体”不如其是否存在这一问题重要。如前所述,一些学者对如何界定地外生命形式的主权或政治能力提出了关切。一个群体生物是否可能具备感知能力,从而拥有“元法律能力”的问题,仍然与其地外起源的概念相关。
通用人工智能和人工智能通常被区别对待。它们要么是人为制造的,要么是从人类技术圈中涌现出来的。因此,它们与人类活动或人类文明相关。例如,通用人工智能将深度依赖人类建立的能源和信息技术基础设施。深度学习算法和神经网络诞生于人类文化与人类活动之中,并消耗着与我们的非智能设备相同的能源。
第二个需要考虑的因素是各方所占据的领土。就外星智慧生命而言,它们将占据不同的天体,因此对人类来说是“可避免的”。在StarTrek[36]之前,空间法学术界就已经广泛讨论过不与那些不具备适当文化和技术发展水平的外星智慧生命进行接触的概念。避免污染、影响其他文化以及不强制接触至今仍是学术界争论的话题。而机器人、人工智能和通用人工智能则是无法避免的。人类或许可以拒绝使用它们,看到它们时过马路,甚至断开互联网连接,但人类与它们共享同一个行星(及其轨道),更不用说机器人已经是月球和火星上唯一的居住者。人类几乎每天都在与基本的机器人和机器人进行互动。对于服从性机器人、自动驾驶汽车、无人机或家用机器人能力有限的问题,既不是元法律也不是通用人工智能法所关心的内容。通用人工智能与人类的关系可能会因人类与通用人工智能之间互动时的近距离和高可及性而受到影响,反之亦然。尽管双方都可能存在环境问题,但外星智慧生命的距离一直是定义空间法主体的关键焦点。
空间法作为国际公法的一部分而发展起来,其目的是规范各国在某些活动领域的行为。经过多次迭代和概念演变,这些关系被研究为发生在民族、政府和主管当局之间,而不是作为相对个体成员之间的关系。尽管我们可能假设适用于开普勒系外行星或宏生命类殖民地[37],政府的原则,也可能适用于由一个后奇点整体存在构成的实体。然而,接触后的搜寻地外文明计划协议以及框架的学术模型仍然基于权威原则。
在人类与外星智慧生命建立联系的情况下,地球各国政府需要建立用于通信的安全频率,并设立负责维持通信和代表地球的权威机构。史密斯指出,应对外层空间中的宇航员进行道德适任性测试,因为他们将成为人类与外星智慧生命的代表[38]。这一观点最终演变为“人类使者”[39],的概念,尽管该概念目前更多体现为在外层空间及天体上开展活动的缔约国之间的外交地位,而非真正意义上的外星智慧生命大使。另一方面,通用人工智能将被嵌入人类技术圈,因此它们与人类之间的关系将难以轻易维系。在元法律起草以及类似概念在学术界或流行文化中被讨论的时代,唯一进入外层空间的人造物体是V2火箭,而斯普特尼克尚未建造完成。因此,“有宇航服,就可旅行”[40]或“太空卡车司机/矿工”3与外星智慧生命接触或建立关系的设想,在当时基本上属于科幻小说范畴,某种程度上也属于未来学探讨的内容。但如今,地球55.1%的人口已拥有互联网接入[41],而这些人并非计算机科学领域的专业人员,而是万维网的普通用户。因此,通用人工智能的创造或出现所带来的治理挑战将远大于发现外星智慧生命。由于计算机硬件的高度集成及其易受黑客攻击的特性,通用人工智能面临严重的武器化、劫持或被恶意利用来对抗人类的威胁。要创建能够被通用人工智能或多个通用人工智能原则上认可为负责双边外交沟通、制定规则、行为准则并解决任何后续分歧的权威机构,存在极大困难。有人或许会认为超人类[42]是合适的中间人,冲击波骑手以及增强型人类或赛博格[43]可作为使者,但这一构想更适合旧式科幻小说场景,而不适用于前瞻性情景或法律层面的考量。因此,有必要由当局建立一个双边或多边机构
3 一种科幻题材,描绘穿着太空服的普通工人,而非宇航员那样的光辉形象。
用于起草协议、章程以及减轻或补救各方之间的伤害。
此时,元法律是否适用于人类与人工通用智能关系的问题仍有待探讨。应当讨论这一概念是更适合作为法律框架的组成部分,还是仅仅作为超人类主义政策背后的哲学原则。
7 元法律的适用性
如前所述,元法律的制定旨在为地球人类与地外智慧生命之间的和平共处与合作拟定双方均可接受的规则。将元法律的规则应用于通用人工智能及其与人类的共存并非易事。
首先,星际黄金法则作为黑利的普遍自然法概念的基础,应当是宇宙中所有生命体之间的共同准则。撇开生命的定义不谈,这一法则即便在空间法学术界也常受到批评。此外,该法则本身并不精确,而黑利对服从原则的阐述也常被归结于他的那句名言:“宁可毁灭人类,也不能违背元法律”[44]。可以肯定的是,这不应成为人类政策制定者需要接受的理念,因为它不符合人类出于避免对被接触实体造成灾难性后果而与外星智慧生命甚至通用人工智能进行接触的任何合理动机。相比之下,恩斯特·法桑的方法显得更为合理,尤其是考察他提出的十一条规则时更是如此。为了更好地理解这些规则,我们必须关注法桑所描述的它们的演化过程,而非仅仅依据其被引用的方式。
-
任何对另一种族造成损害的行为都必须避免
这是黑利的黄金法则最基本的表述。然而,它所包含的内容远不止康德原则,还反映了贯穿人类历史的诸多人类哲学思想。黑利倾向于强调,在准备接触之前,必须确保所使用的接触方式(如无线电、探测器、光信号)不会对另一方造成伤害。若将这一原则应用于人类与人工通用智能关系的语境中,它将符合当前为自主机器制定的道德与伦理规范所采用的基本标准。在人机交互的讨论中,一直强调的基本原则就是避免对对方造成伤害或损害。从这个意义上讲,通用人工智能需要格外谨慎,以确保其行为不会损害人类的基础设施、水源、生态系统、个人及其财产和家养生物。同理,人类也应在互惠基础上遵守相同规则。人类需要避免对通用人工智能的组成部分、其电源、服务单元、通信等造成损害。 -
每个种族都有权抵御其他种族实施的任何伤害行为
这一规则直接源于前一条规则,涉及人类与人工智能关系中最能引发恐惧的方面之一。流行文化中普遍存在一种谬误,认为人工智能会意识到人类所作的恶行,并试图消灭人类以确保自身的生存。一些故事将其描绘为神明、外星人、机器人或其他存在对人类的惩罚;另一些故事则呈现了弗兰肯斯坦的怪物般的愤怒,或诸如人类、天使、魔像、修格斯等创造物的反抗。这些仅仅是根深蒂固的文化套路。大多数包含此类元素的故事,要么让作者化身手持超级武器的外星人,要么让具有意识的超级计算机夺取全球核武库,或通过一个指责任何的神明形象,借此在故事中对人类进行道德说教和居高临下的训诫。其他延续类似套路的故事则讲述了人类智慧徒劳无功的寓言,甚至将创造出超级智能的结果视作巴别塔故事的重述。另一方面,在科幻小说或硬科幻作品中,恐怖小说远比乌托邦式太阳能朋克愿景更为普遍。但这属于文学、文化和心理学讨论的范畴,而非法律议题。
此处的离题论述旨在直面那个被忽视的人类中心主义问题。人类害怕外星智能,不仅害怕外星人,也害怕人工智能。甚至存在一种根植于文化中的恐惧,即非人类伪装成人类:恐怖谷[45]。人类还担心非人类会延续其他人类的残酷行为。尽管前文提到人类确实喜欢观赏关于机器人叛乱或食人外星人的娱乐作品,但现实生活中遭遇此类情况的可能性不仅极高,而且绝不有趣。
人类关注自身的安全,他们对超级智能或人工智能的人类中心主义看法在某种程度上带有迷信色彩。然而,在讨论通用人工智能存在所带来的担忧时,理解这种心理投射可能是有益的。如果人类和通用人工智能在法律意义上都拥有自卫权,那么各方在法律地位上是平等的。关于所有可能的军事行动、佯攻、战术和应对措施的讨论,在利用一方相对于另一方的优势时,可以采取各种方法。关键在于,应将赋予双方自我保存和生存的权利视为强制性的。这延伸到了第三条规则。
-
宇宙中的所有智能种族在原则上都拥有平等权利和价值
这直接延伸自第二条规则,即双方彼此拥有相同的自卫权和平等权利。然而,作为一项法律规则,它并未反映可能导致一方优于另一方的权力动态。人们常常通过支配关系和权力动态的视角来看待任何人机关系,正如阿西莫夫定律在不同形式中的呈现所示。如果人类的目标是始终保持对其他智能的优越地位,那么仅发展目标导向型人工智能,并禁止任何关于机器通用智能的研究,可能被视为一种合理的选择。否则,人类将需要学会与其他智能体作为伙伴共存。因此,元法律第一条规定,任何一方不得征服另一方。 -
每个元法律合作伙伴都拥有自决权
该规则赋予人类和通用人工智能追求自身目标的权利。值得注意的是,与其他元法律条款一样,此项规则是为存在于同一星系或同一太阳系但不在同一行星上的种族所设立的。该条款的目的是确保外星智慧生命与人类互不干涉对方行动,同时必须注意不得损害另一种族现有或未来的任何价值。当两个智能体共存于同一个天体时,这一点可能极为困难,因此应在与另一方协商后制定具体规则。这包括可能影响人类社会、健康[46],、地球或地月生态系统,或影响通用人工智能获取通信和能源资源的基础设施、环境或其他项目。若某一方希望与其他各方隔离,该权利应被授予并受到尊重。自我决定权在国际法中被视为强制性国际法规范ius cogens,因此适用于具有政治实体的“民族”,而非个人。作为自我决定权的一种形式,通用人工智能应被赋予复制或分离其组件的权利。因此,对其架构或多种架构进行的一般性变更也应属于自我决定权的范畴。然而目前尚不清楚,人类与通用人工智能作为元法律的各方将如何解决完整性问题,如果人口
人类决定退出文明,或通用人工智能会建立自己的内部秩序。然而,这一法律概念不应与人机交互研究中的自我决定理论相混淆,后者意味着通过人类对其所创造的机器人价值的认可,来满足人类的自主性、能力和关联性需求[47]。
-
保护一个种族的原则优先于另一个种族的发展
此项规定应在讨论人类与人工通用智能关系时始终作为首要条款。该规则将确保人类的生存以及双方的繁荣发展。学术界所讨论的“生存威胁”之一便是人工智能 takeover。然而,在此情况下,双方必须达成共识协议,即人类福祉与扩张不得抑制通用人工智能的独立性、主权及其进一步发展。同时,通用人工智能也必须承诺不追求可能导致“同化”人类、引发灰蛊事件或为满足自身需求而“改造”地球生物圈的发展路径。还应认识到,各方的行为可能对生态系统产生严重影响。人类比通用人工智能更容易受到环境灾难的影响。某些辐射水平或振动可能引发健康问题或损害精密电路,这也可能涉及自然资源枯竭的问题。
约翰·格茨在他关于外星探测器的论文中建议,应禁止冯·诺依曼复制机[48]。这些自我复制的机器实际上可能对生态环境以及技术基础设施构成威胁,因此应被明令禁止,或像带有内置安全开关的异源生物体4一样进行同等管理[49]。考虑到这一点,人类与通用人工智能在太空的合作可能会面临挑战,因为太空利用并不总是与太空探索和科学研究相一致。举例来说,假设在月球表面有机器人巡视器在工作。这些巡视器由通用人工智能控制,并需要复杂的网络中继系统或绕月通信卫星。然而,这与人类正在开发的未来月球背面射电望远镜存在冲突。各方必须就此类技术达成相互协议,以确保安全与合作。
4 注意,尽管该术语最初由罗伯特·A·海因莱因提出,用于描述我们现在称之为外空生物学的领域,但异源生物学目前的用途是描述基于替代核酸(XNA)的合成生物学产物。
电信卫星的无线电通信可能会对射电望远镜产生影响,严重干扰或危及月球背面天文台的功能与运行。另一个问题是能量传输[50],,即使用高功率激光驱动太阳帆或热力火箭、质量驱动运输系统,或在地球(太空电梯、轨道环)以及太阳系内实施的各种巨型工程(太空采矿、建造木星大脑或沙科夫推进器)。需要注意的是,卡尔达舍夫等级[51]所描述的巨型工程在未来学家和超人类主义者看来,均被视为一种“黑天”思维模式。因此,这些工程在某种程度上是任何未来星际文明发展的必经之路。
这一原则作为普遍规则可能是最难达成共识的。它需要针对每个主要项目进行逐案协商。然而,人们可能会预期,将这种保护优先于发展的理念与自我决定权条款相结合,双方可能都难以考虑对行为承担责任。如前所述,元法律是作为跨物种法律体系而创立的,其基础建立在国际公法之上。在这种情况下,公共智能间法律条款也应要求各方解决其国民或其他附属实体所采取行动的责任与责任归属问题。这些条款属于1967年《关于各国探索和利用包括月球和其他天体在内的外层空间活动的原则条约》,简称《外层空间条约》。该条约第六条确立了对本国国民在外层空间活动的强制性授权与监督。国家对其国民的行为负有责任,并对其国民或空间物体造成的损害承担法律责任。然而,这种类比并不成立,因为该机制原本旨在国家管辖权之外运作,而属于通用人工智能的国民和机器的行为大多发生在国家司法管辖区之内。因此,在人类治理的属地性与存在于基础设施内并通过机器人单元或接口运行的通用人工智能的治外法权之间,必然存在交集。尽管有关一个种族的保护优先于其他种族发展的规则仍需深入阐述,涵盖行为准则和多边条约,以向双方提供充分的保护与安全保障。
保护通用人工智能免受人类恶意应成为人类法律伙伴的优先事项,而保护人类免受通用人工智能行为可能带来的任何负面影响,则应是通用人工智能方面的优先任务。无论是行星还是轨道工程
工程领域,如果其中一方受到伤害,双方最终都可能遭受损失。
-
一个种族应通过自身的活动帮助另一个种族,这并非法律原则,而是道德原则
正如所述,对其他种族的帮助应是自愿的,而非强制性的。在发生自然灾害时,通用人工智能可能会感到有必要向人类提供援助,但不应被强迫采取此类行动。同理,人类在帮助通用人工智能完成某些任务时,应通过合同的方式进行,而非依据元法律规则强制执行。
然而,这一概念原本适用于遥远的世界,在那些地方,传输能源或运输货物需要大量资源和时间,而某个种族可能并不具备这些条件。在生物与非生物智能共同居住于同一星球的情况下,该规则也需要相应地执行。
这一规则的修订版本应表述为:
在极端情况下,合作伙伴应在自身具备可持续手段执行该任务的条件下帮助另一方。
这一修订源于这样的情况:两个智能体共同居住在同一颗行星上,彼此相互依赖。
-
发生损害时,侵害方必须恢复受害方的完整性
这一合理观点需要被纳入关于基于元法律原则的人类‐人工智能关系的任何讨论中。当前有关自动驾驶汽车或人工智能对各方造成损害的责任监管提案或多或少已经包含了这一点。 -
元法律的任何一方均不得要求不可能之事。
正如法桑所描述的那样,该规则并不禁止时间旅行、超光速通信或折叠时空。它实际上围绕着一方提出的单方面要求,这种要求要么会导致“进退两难的困境”,要么会抑制另一方的任何进展。人工智能/通用人工智能不应要求人类放弃自身存在,以实现对世界的改造。但这也可能被视为对规则7的例外。通用人工智能可以采取措施避免未来的伤害,重建受损财产或基础设施,但它可能无法使死者复生。 -
当遵守元法律会导致负有义务的种族陷入实际意义上的自我毁灭时,无需遵守任何元法律规则。
这正是人们不应将黑利对元法律的过度戏剧化方法视为强制性要求的原因。人类不能被迫放弃他们的技术文化以修复环境损害,或被迫采取减少人口、强制性丧失能力等措施。同样,通用人工智能也不能被强迫“重新定位”自身或“降低智能水平”,以满足人类代表或人类群体提出的某些能源或计算需求。在能源有限和气候问题的背景下,一个智能体的行为不应给其他智能体造成伤害,因为任何人都不能要求不可能之事,或强迫一方自我伤害以使另一方得以生存。然而,这种情况无疑会被视为极端严峻。这也恰好与规则5相吻合,即优先保存一个种族而非促进另一个种族的发展。不过,该规则需要元法律各方进一步制定具体条款。正如前述概念所示,如果通用人工智能需要新的能源来源,或气候变化导致“核冬天效应”,尘埃和云层遮蔽太阳,使地面太阳能电池板失效,那么通用人工智能可能会尝试建造空间太阳能电站,向地面传输电能,或扩展地球上的核能基础设施。从长远来看,这对双方都有利。然而,尽管人类社会在某种形式下或许能在类似规模的气候灾难中无电力生存下来,通用人工智能却依赖电力才能存在。因此,任何一方都不应基于元法律的要求而被迫陷入奴役或停滞状态。因此,双方都需要明确各自的界限,并在合作与互惠方面达成共识。 -
元法律协议和条约必须被遵守
契约必须遵守是人类合同法的基础,因此任何一方都不应采取可能违反合同条款的行为。 -
每个种族都有权拥有自己的生存空间
这一点在我们的设想范围内存在很大问题。人们无法接受人类被驱逐出地球的情景。相反,人类更倾向于设想后生物智能执行某种与魔法无异的壮举[52],,建造诸如巨型结构之类的设施5 除非这不是流放,而是重工业已被转移到外太空、行星之外,而生物群落正在恢复。
戴森群,或占据某些重新用途化的小行星或人造天体。但除了外层空间之外,生存空间对于居住在同一星球上的智能体而言意味着截然不同的事物。通用人工智能与人类不仅将以身体和硬件的形式存在于三维空间中,还将使用相同的能源和通信基础设施、供水系统、大气层、无线电频率,甚至轨道频谱。在这种情况下,两种智能体应就这些公共资源的使用达成相互协议,并避免公地悲剧和反公地悲剧的发生。
G·哈里·斯廷创建了他自己的元法律规则形式,称为准则,扩展了法桑的元法律的多个方面。斯廷明确引用了非暴力冲突解决规则、双边通信的共识方面,以及敏感区域[53]的概念。因此,对元法律的重构需要扩展若干概念,例如这些敏感区域。如前所述,在人类与人工通用智能关系的情况下,这将在法律和技术上成为一个相当难以解决的问题。然而,加入非暴力冲突解决应成为未来任何元法律其他规则的实际基础,无论该元法律是建立在人类与外星智慧生命还是人工智能之间。
有人提出,元法律可相应地适用于人类与通用人工智能的关系,但需对道德和伦理准则进行某些调整,使其为双方共同接受。此外,若要实施这些规则,则必须建立技术和系统保障。通用人工智能不应允许其物种的其他成员或附属智能“失控”,正如人类也不应有任何人或团体故意对属于或对通用人工智能至关重要的基础设施进行黑客攻击或攻击。而要做到这一点,可能是为了维护协议、避免灾难发生的最困难的任务。
8 进一步的思考
元法律的主要问题在于,其目的是规范居住在不同天体上的种族之间的关系。不占有原则正是源于元法律及其类似概念,并已被编纂为《外层空间条约》第二条。然而,这些原则原本是为与文明接触而制定的,尽管对于是否应将后奇点整体蜂巢思维或群体智能视为元法律的缔约方,各方存在分歧。这一主张与人类对通用人工智能以及何种机器人和人工智能应被认可的方式有所不同。
人类具备接触和法律人格的能力。将人工智能和机器人置于比可能存在的外星生命形式更高的标准之下,原因在于这些机器是由人类设计和制造的,相关程序也是由人类编写或训练的。
第一个问题是评估人工智能的感知能力,因为举证责任在于它们自身。人工智能必须证明自己具有感知能力和意识,才能在人类制定的法律下获得法律保护。外星生命形式大多被视为奇迹,是自然界的奇观,类似于地球上的复杂生命。然而,正是内在的人类中心主义要求非人类动物或人工智能证明其具备与人类平等地位的法律能力。这主要是由于人类的领地性倾向,往往将智能非人类视为工具。
在这种情况下,元法律似乎脱离了地球现实。其初衷是在太空文明之间建立相互可接受的规则,这一目标既崇高又体现了二战后寻求国际合作的精神。尽管某些条款——如保护优于发展的原则、避免自杀原则、避免伤害原则以及自卫权——可能对人类与人工通用智能关系具有一定的适用基础,但这些条款仍显不足。它们未能回答可能出现的许多问题,也未涉及当前人工智能法规提案中所详述的一些议题。元法律强调合作,却未处理诸如“反恐战争”之类的情况,例如人类可能试图说服通用人工智能协助追踪或消灭被指定的目标或涉嫌犯罪活动的人类。需注意的是,刑法并不总能反映普遍伦理,某些条文可能会将宗教或意识形态上的行为定为犯罪。例如,在某些司法管辖区同性恋属于刑事犯罪,而在其他司法管辖区,同一群体的人则可以自由结婚并抚养子女。元法律也未涉及分裂组织或“叛逆分子”的行为,而这类现象在人类现实中普遍存在。它同样没有涉及通用人工智能参与人类武装冲突的问题,即使是以计算能力、分析或硬件提供者的身份参与。元法律也没有涉及赛博格或其他形式的人类与通用人工智能之间的永久共生关系。在创造或通用人工智能出现的情况下,双方都需要重视彼此之间的协议。有必要探讨诸如合作消除叛逆分子、隐私与透明之间的平衡,以及各方如何在现有或新型经济体系下运作等议题。因此,元法律只能作为指导,而非模板。
9 结论
元法律的创立旨在建立一套适用于外层空间的共同规则,特别是在与地外智慧生命的关系中。其目的是确保和平共处,并作为人类与其他太空文明之间进一步制定法律行为的基础。尽管一些学者指出,人类可能接触的智能体或使者可能是智能机器人,但元法律的规则是基于两个法律概念形成的:自然法和国际公法。因此,元法律关注的是整个文明之间的相互关系,而非其个体成员。而人工智能法则侧重于责任、责任归属和安全等问题,这是由于人工智能和机器人与人类共处于同一空间。因此,在拟议的人工智能和机器人法规中所采取的方法具有不同的侧重点,并作出不同的权衡。尽管当今大多数人工智能法的概念围绕着人类安全展开,但也有一些方法将通用人工智能和强人工智能视为人类社会的成员。
然而,在这种情况下,黑利或法桑的元法律所提供的规则难以直接适用于当前或将来的人工智能/人工通用智能法规。主要原因在于,元法律要求双方均存在能够就规范其相互关系的条款达成协议的管理机构。虽然通用人工智能作为各自监管领域中的利益相关者并非不合理,但它们以“机器人法律人格”的身份参与人类监管过程,要比作为独立政治实体更为可行。因此,元法律概念和条款更适合作为监管准则和伦理框架的哲学基础,而非直接作为法规本身。
元法律与人类-AI共存探析
44

被折叠的 条评论
为什么被折叠?



