刘云:论人工智能的法律人格制度需求与多层应对

来源:上海市法学会 东方法学 编辑:李翻 审核人:刘园园 发布时间:2021-01-20

刘云  清华大学法学院博士后、助理研究员。

内容摘要

人工智能的法律人格需求是伴随着自动化技术的发展而产生的,是智能社会治理中许多具体问题都会触及的理论假设。自1992年人工智能法律人格设想被首次提出以来,它成为理论研究、立法建议和司法实践中普遍关注的话题,人工智能生成物的著作权归属、人工智能担任人类工作角色和欧洲的立法动议更促进了这一问题的讨论。人工智能的法律人格具有多维度的需求。既包括明确侵权责任、塑造权利能力等具体需求,也包括以构建社会治理新范式为目标的根本需求。不能简单地从概念上直接排除人工智能具有法律人格的可能性,也不能认为授予法律人格是唯一或者更佳的解决办法。人工智能法律人格是智能社会发展中新型治理模式的选项,以功能主义的态度来进行解释论或立法论的探讨是看待人工智能法律人格问题的正确视角,可以分别按照财产、类推适用代理、借用公司或财产法人、设立新的法律主体等方式回应人工智能带来的法律问题和挑战。即便不设立新的法律人格,在人工智能的侵权责任、合同缔约程序、代理关系认定等方面也需要作出必要的补充规定。

关键词:人工智能  法律人格  智能社会治理  机器侵权  侵权责任  塑造权利能力

法律人格也称之为法律主体资格,是独立承担责任或享有权利的法律地位。人工智能可否取得法律人格是智能社会治理中悬而未决的基础命题。国务院于2017年颁发的《新一代人工智能发展规划》要求,“明确人工智能法律主体以及相关权利、义务和责任等”。2020年7月,欧洲议会法律事务委员会发布的《人工智能与民事责任》研究报告再次提出:不能完全否定赋予人工智能法律人格的可能性,但是授予法律人格也不是解决挑战的唯一办法,能否授权法律人格以及如何授予法律人格应当具备一套合理的条件。国内外的立法政策中都在考虑人工智能的法律人格问题,证明这并不是一个科幻问题或者纯粹的主观价值判断问题,而是传统法律制度在新一代人工智能技术发展背景下必须作出判断的社会治理模式选择问题。

一、智能社会治理中人工智能的法律人格争议

人工智能的法律人格问题是随着自动化技术的发展而产生的。早在20世纪60年代末,人们就开始讨论通过计算机做出的行为具有何种法律效果,最初的研究倾向于认定为一种电子化的意思表示。美国统一州法委员会在20世纪90年代拟定统一计算机信息交易示范法(草案)时开始考虑将合同订立的数据交换电文视为一种电子代理人,但是此处的电子代理人是完全按照人的指示行事的计算机程序,最终颁布的示范法也仅仅在少数州获得认可。劳伦斯·索伦在1992年首次讨论了赋予人工智能法律人格的可能与障碍,他指出:在人工智能发展处于低谷且没有高级人工智能实物的背景下,应当按照现行法进行相对保守的处理,人工智能真正普及之后就需要考虑是否赋予法律人格的问题。随着科学技术的发展,越来越复杂的人工智能实体表现出灵活多样的行为,除了参与合同签订、机械工作和决策辅助外,还可以承担“驾驶员”“作家”“家庭管家”“自动化决策者”等传统理性人的角色,这些再次引发了智能社会治理背景下拟制人工智能法律人格的讨论。

人工智能的法律人格是许多具体问题都会触碰到的理论假设。无监督的人工智能自主机器人可否拟制为人?人工智能技术自动生成作品是否可以享有著作权保护?如何对人工智能机器人进行征税?自动驾驶汽车造成他人损害该由谁来承担责任?如何为人工智能技术的发展设定伦理规范?人工智能机器人出入国家边境如何进行审查?人工智能产品的风险是否可以得到有限责任保护?……这些问题都会牵扯到赋予人工智能以法律人格来满足社会治理需求的可能性。近几年来引发人工智能法律人格问题讨论主要是三个方面的事件:

第一,人工智能生成物是否受著作权保护引发了法律人格问题的追问。美国纽约州法院于2014年在黑猩猩自拍形成的照片案例中作出裁定:尽管黑猩猩具有比较复杂的认知能力,但其不能被视为自然人,故而其照片不受著作权法保护。这一案例引发了学术界对人工智能生成物是否可以受著作权法保护的讨论。2018年12月,北京互联网法院首次在计算机系统自动生成物一案判决中指出:软件用户仅提交了关键词进行搜索,应用“可视化”功能自动生成的分析报告亦非传递软件用户思想、感情的独创性表达,故该分析报告亦不宜认定为使用者创作完成。在没有人工智能主体资格的情况下,以世界知识产权组织为代表的国内外观点不支持人工智能生成物受著作权法保护。

第二,人工智能是否可以在特定场景认定为法律上所规定的人成为现实的社会问题。2016年2月,美国国家公路交通安全管理局在给谷歌公司的回函中明确表示,根据美国联邦法律,谷歌自动驾驶汽车中的自动驾驶系统可视为“驾驶员”,这为人工智能在自动驾驶领域的落地提供了有利的条件。2017年10月,一家香港公司制造的机器人索菲亚被沙特阿拉伯授予公民身份,这引起了人工智能法律人格问题的热烈争议。此外,机器人出入国境场景下的法律适用,也成为一些学者讨论的新议题。这些现实问题都反映了智能社会治理中的法律挑战。

第三,欧洲议会法律事务委员会赋予人工智能以“电子人”身份的立法动议推动了问题的发展。欧洲议会法律事务委员会于2016年5月在《关于机器人相关民法规则的报告(草案)》中首次提出,呼吁欧洲委员会在未来的立法中探讨赋予机器人具体的法律地位的可能性,以便至少最先进的自主机器人可以被确定为具有特定权利和义务的“电子人”的地位。尽管上述建议招致了广泛批评,2017年之后发布的多个欧盟研究报告和立法议案明确否定授予人工智能以法律人格,欧洲议会在最新发布的立法建议也删除了相关规定,但是,欧洲议会法律事务委员会在2020年7月发布的报告中依然坚持其最初的建议,并对批评意见作了逐一辩驳,表明该问题依然尚未形成定论。

人工智能是否可以、是否应当取得法律人格,可以是一个没有答案的哲学问题,可以是各类群体理解人工智能社会角色的不同视角问题。同时,也是对人工智能进行立法设计、伦理指引的必答题,也是人工智能相关产业进行责任、权利分担和法律地位认定的制度选项。有哲学家提出:在没有承认人工智能具有法律人格的情况下,关于其人格的哲学辩论就无法进行,这反映出法律人格的讨论具有决定性意义。从智能社会治理需求而言,赋予人工智能法律人格的需求是否真实?所谓的法律人格需求可以通过哪些途径实现?人工智能的法律人格问题映射了哪些认识?这些都是法学研究需要且可以破解的问题。

二、赋予人工智能以法律人格的必要性

(一)明确侵权责任分配

自从蒸汽机发明以来,技术进步推动了责任制度的革新。人工智能普遍被认为是一个机遇与挑战并存的“双刃剑”技术,对人工智能引发的法律风险进行适当的责任安排成为各国立法的一项重要目标。在没有法律人格的情况下,人工智能的法律责任均按照产品责任的规则进行处理。传统的产品在制造、销售和使用过程中的状态是较为稳定的,出厂流通的技术要求和运行参数是明确的,用户使用过程中也具有较强的控制力,相应的产品责任分配较为清晰。完全封闭、独立的人工智能在运行过程中排除了用户的实质干预,产品制造商以实时连线的方式对其产品具有排他性的控制权,此种场景的人工智能责任由该唯一的制造商承担并不会产生争议。然而,多主体协同、开放式支撑的人工智能是更为常见的形式,硬件制造商、软件提供商、系统运行维护商、基础网络提供商、改造利用的用户和网络侵入者都会实质性地影响人工智能的运行,人工智能在运行过程中也会自我优化和发展,由此导致责任主体认定困难重重。此外,鉴于人工智能的独特功能,其中最突出的是“算法黑箱”问题,产品责任有时候不足以处理人工智能造成的侵害。中国首例特斯拉自动驾驶汽车致人死亡案件就表明,人工智能状态和因果关系的司法鉴定成本是昂贵且困难的。

赋予人工智能以法律人格可以让机器人独立承担责任,避免使用者和不同控制者的责任不清,也可以通过设立法人的过程提前分配相关者的责任份额。从受害者的角度而言,拟制法律人格的方法实际是建立了快速理赔通道,受害人可以高效地从引发风险的法律主体获得赔偿,而不需要经过漫长、昂贵和艰苦的过程来确定具体的责任人。欧洲议会法律委员会在2016年发布的《关于机器人相关民法规则的报告(草案)》,也基于上述原因提出了“电子人”的制度选择。为了匹配前述独立责任,人工智能主体设立人注入责任资本或者购买责任保险是必然的要求。尽管责任保险和责任资本都存在资金不足以清偿责任的问题,但相比由传统法律主体负责的思路,这种分离资产而设立新法律主体的方法在某些时候提高了实际获得理赔的可能性。与此同时,责任资金不足的问题可以通过调高责任保险、责任资本的方式弥补,也可以仿照“法律人格否认规则”避免独立责任制度被不合理地滥用,以让人工智能主体设立者在特定情形下承担补充赔偿责任。此外,由于以机器学习为代表的人工智能具有不确定的风险,赋予商业运营的人工智能以法律人格可以将这种责任予以合理隔离,这将鼓励资本对人工智能产业的投资,可能会对人工智能产业的发展带来一系列好处。

在民法上选择哪一个主体承担赔偿责任应当根据效率和有效性的功能作出判断,直接让机器人承担责任并不是在任何情况下都是明智的选择。

一方面,可能难以起到法律引导的功能。机器人并不害怕被追责,无法感知法律责任的教育意义。即使是直接对机器人施加惩罚,包括机器的断开、瘫痪和毁坏,也只会给拥有机器或对其拥有权利的当事人造成负担。

另一方面,限制人工智能制造商或设计者的责任并不构成为其拟制法律人格的正当目的。

赋予法律人格相当于为这一行业设立专门的人工智能有限责任制度,这种法律人格所产生的机器独立责任(有限责任)可能会激发错误的行为,鼓励人工智能开发人员将责任转移到他们开发的机器上,不确定的风险并不会因此而消失。即便不是有限责任的滥用,通过法定形式给人工智能这一特定行业设定有限责任制度也需要充分的论证。人工智能产业的应用领域非常广泛,这意味着不是所有人工智能领域都有通过立法进行鼓励的必要,因此社会不可能普遍地给予人工智能以责任限额/豁免。尽管各国都在抢占人工智能行业的制高点,但是否应该通过法律人格给予人工智能行业以有限责任保护,这是一个需要深思熟虑的政策问题。2020年2月发布的《欧洲人工智能白皮书》提出:在未来的监管框架中,每项义务都应由最有能力应对任何潜在风险的参与者承担。虽然人工智能的开发人员可能最适合解决开发阶段所产生的风险,但是,他们在使用阶段控制风险的能力可能会受到更大的限制,在这种情况下,部署者应承担相关义务。此外,从实在法的角度而言,即使是完全自主的技术所造成的损害,一般也可归因于自然人或现有各类法人的风险。如果情况并非如此,通过修法的方式直接针对现有法律主体分配责任也是一种选择。据此,要求人类负责人对人工智能的错误承担责任,这将激励他们创建一个更安全可控的环境,并构成智能社会中日益迫切需要的治理目标。

总而言之,授予人工智能以法律人格绝不能以不合理转嫁责任为目标。至少在人工智能发展风险还不明朗的当今,做好人工智能产业开发端的风险把控依然是最稳妥和务实的政策选择。然而,基于明确侵权责任承担主体的理由,当拟制法律人格有助于应对人工智能带来的责任复杂性问题时,这种分解、简化责任关系的策略是一种可选的制度安排。此外,随着共有产权和共同控制成为一种潜在的趋势,对人工智能的惩罚存在拔下电源、重新编程等多种多样的观点争论,目前仍然没有找到普遍接受的方法惩罚人工智能,赋予人工智能以法律人格可能成为复杂控制关系下人工智能的一种责任认定依据。

(二)以塑造行为能力、权利能力为目标

随着人工智能充当的社会角色越来越多,赋予其特定的行为能力、权利能力成为选择法律人格制度的重要考虑因素。一种误解会认为人工智能所拥有的行为能力、权利能力与人类相同,故此联想到主体认同是否会引发人工智能伦理威胁。事实上,机器人的权利有别于人类的“自然权利”,它具有法律拟制性、利他性以及功能性等权利属性。在现有的法律主体之中,不同年龄阶段的人所拥有的行为能力范围可能是不同的,金融公司和煤矿公司所具有的行为能力范围也存在明显差异,公司和人也是拥有不同权利能力的法律主体。因此,法律主体资格是依法取得的,各类法律主体所拥有的行为能力、权利能力范围也是依法限定的,赋予人工智能法律人格不意味着其可以享有基本人权中的各项权利。也即,可以根据智能社会治理的需求确定或者限定其行为能力、权利能力的范围。例如,有观点认为,人工智能应当具备订立合同、报告残酷的行为能力,结合人工智能的特点赋予获取数据和能源、升级和维护的权利能力。从人工智能目前的发展阶段而言,其可能的行为能力和权利能力需求主要是缔约能力和获利能力。

对于缔约能力的需求,爱丁堡大学计算法学教授伯克哈德·舍弗曾经列举了一个生动的例子:“假设你是一名残疾人,并且依靠家用机器人来帮助您的日常生活。该机器人要做的一件事就是监控饮食并确保您得到足够的正确食物,当它有一天发现您的蔬菜不足,并且要再订购一些。我们这时就需要确保机器人和商店之间可以订立有效的合同。我们显然不希望食品杂货店说‘我与机器进行了谈判,因此合同无效。’此时的机器人如果具有法律主体资格,那么在技术上就容易操作了。”在传统的电子交易结构中,委托交易是人利用电子媒介工具从事的活动,但是人工智能是从需求提出到完成决策都可以由机器人执行,人类用户往往没有意识到自己的作用,这里面就容易出现利用人工智能从事的行为与当事人真实意思不一致等各种争议问题。出现这一差异的根本原因在于,传统的意思表示和因果关系理论在人工智能从事的交易中进行解释的链条过长,而这种很长的链条比较容易出现链条断裂的解释冲突,一些不可预见的交易风险也会因此而产生,而直接授予人工智能以法律人格可以通过强有力的中继站来保障足够的权利能力,以此维护交易安全。不过,解决冗长交易链条的争议问题也非必须创建新的法律主体,通过相关交易法律规则的解释也可以达到定分止争的目的。例如,通过法律解释的方法认定所谓的人工智能的意思表示全部归于用户,利用人工智能从事交易的法律后果由用户承担,也可以解决前述问题。然而,如果这种传统拟制的意思表示主体无法统一地归属到现有法律主体,或者有必要让这种意思表示独立于传统的法律主体,就需要将人工智能拟制为一个中间法律主体,从而维护合同关系的稳定。

对于获利的能力需求,主要是指人工智能自主的作品可否享有著作权。人类有很长的历史质疑机器辅助创作是否可以通过版权保护。例如,早期的照片无法受到保护,因为仅通过暗箱的镜头捕获光并不是真正的作者,然而这种观点在现在已经被更改。目前,人工智能产生的新闻报告、诗歌创作、音乐创作和其他各类成果的创作已经成为普遍应用的现象。在机器学习算法应用之前的历史中,各类计算机软件仅仅是人类用户的创作工具,运用各种软件创作的用户才是所产生的任何受版权保护的作品的作者。机器仅按照计算机程序的方式生成内容,程序开发者被认为是此(可预测的)输出作品的作者。然而,机器学习的人工智能创作在初步计算模型构建后可以自行完善算法甚至修改其原有代码,这会产生人类程序员无法预见的结果输出,特别其收集数据并不断学习的能力与人类大不相同,此时产生的文学艺术作品都具有随机性,与人类自身创造性之间的因果关系变得非常微弱。目前主流观点依据现行著作权法进行解释,认为能够享有著作权的“作者”必须是人类。著作权意在促进人类的创造力而创设了激励措施,使机器在文学和艺术领域拥有作品的著作权就可能威胁人类进步。故而认为,没有人类创造力参与的机器作品不能享有著作权,机器自主创作达到一定自动化阈值就只能归入公众可以自由使用的公有领域。批评者则认为,上述观点是基于20世纪中叶思想所作的过时分析,作品本身的创造性才是其是否值得著作权保护的因素,人工智能创作机器同样需要鼓励投资人的进入,因此需要实事求是地承认人工智能的创作者地位,同时允许自然人(或法人)获得利益并控制利益,从而消除人工智能知识产权不确定性的风险。笔者认为,新一代信息技术的发展方向是共享经济,扩大公共资源的范围确实符合时代趋势。然而,在现实社会中,无主物并不利于社会效益提升,往往会陷于公地悲剧或者互相保密的不信任局面。尽管主流观点认为,人工智能生成物不应受著作权法保护,但这里的人工智能生成物主要是限制将著作权授予人工智能产品制作者,使用者在数据收集、处理等人工智能系统利用过程中具有创造性而获得的作品依然应当获得权利。如果未来出现完全自动化且具备创造性的作品生产者,指定其权利归属是法律不可回避的问题。

(三)以构建社会治理新范式为目标

法律规则是对社会实践的抽象总结,其本身应当具有扩展适用能力才能稳定法治社会的预期,故而,法律人一般倾向秉持保守主义的做法而维持现行法律主体范围不变。积极支持变革者则认为,法律面对人工智能这类高度发达的技术如果仅做微小的调整,只会徒增更大的法律复杂性。其基本逻辑是,如果人工智能对法律的方方面面都产生了深刻影响,在现行法律制度中依托现有法律主体构建各种法律关系可能导致规则过于复杂或者执行成本过高,这会导致勉强的法律解释脱离社会的真实情况,最终会成为不明智和不可持续的守旧派。为此,授予人工智能法律人格的一个根本目标就是构建新的治理结构,从而适应智能社会的法律范式变革需求。

人工智能在一定程度上不同于传统人类与工具之间的关系,不仅存在依附于人类的人机协作关系,而且出现了一系列人工智能取代人的岗位,这种工具独立性的增强使得赋予人工智能法律人格成为一种可选项。有观点认为,人工智能具有自主性、主动性,已非纯受支配之客体,在法律上应设定为“电子人”。他们认为,只有引入一个“电子人”才能确保相关法律关系的合法有效,特别是在人工智能越来越多地独立参与各种经济交易活动,缺乏法律人格将导致其参与的各种交易会出现不被认可的安全隐患。还有刑法学者指出:智能机器人可能超越程序的设计和编制的范围,按照自主的意识和意志实施犯罪行为,因而完全可能成为行为主体而承担刑事责任。这些观点的本质是认为人工智能具备了独立意识,但是“独立意思的表示”并不适宜作为机器人获得主体资格的特征标识,因为原有法律框架中的独立之意是行为主体自我决定,而人工智能到底是独立于程序设计者还是机器的使用者,会得出不确定的结论。事实上,美国纽约州法院在2014年的判决中就指出:尽管黑猩猩具有比较复杂的认知能力,但是其不能被视为法律上的“人”,不能独立地享有权利。由此可知,动物即便具有自主意识也不等于其可以获得法律上“人”的地位,而在人类社会中患有精神疾病的人、植物人、婴儿获得法律人格也不受其自主意识能力的影响,故而是否赋予人工智能法律人格与其自主意识的程度不构成必然联系,与我们的智能社会的治理结构选择具有重要关系。

人工智能的出现除了增强人类的本能,同时还创造了人类能力之外的机器智能,这种新的智能构成社会新的功能模块而被认为可以获得法律主体资格。在此背景之下,智能社会中的人类如何考虑在法律和道德基础上对待非生物实体也成为新型社会关系中需要解决的问题,否则无法维护传统的社会契约基础,人类也无法恰当地履行相关的道德义务。我们正在建立一个新的智能社会,凝聚其中的价值观将定义我们的走向。授予人工智能以法律人格可能会防止将机器人视为单纯的奴隶而造成道德上的畸变,2018年12月发布的《蒙特利尔人工智能负责任发展宣言》(Montreal Declaration for a Responsible Development of Artificial Intelligence)提出避免残酷对待人工智能系统和人工智能正常运行情况下的免责原则,就属于人工智能法律人格所体现的一种价值取向。从智能社会法律范式变革的底层思维而言,赋予人工智能以法律人格确实有利于构建新的治理模式和相应治理规则,甚至可以促进“代码即法律”的相关理论成为现实。但是,批评者则认为,人工智能是基于算法,其属于一种可以复制的计算机代码,此特征意味着所有人工智能都缺乏真正的自主权和判断力。它们可以由其用户,制造它们的人甚至是恶意的第三方(即黑客)所控制,从而使得赋予人工智能以法律人格将引发不可控的风险。公司法人的人格历史充分说明了这些问题并不会构成赋予法律人格的障碍,但是,该质疑确实反映出人工智能主体资格的解释和规则安排是一系列复杂的工程,这种构建智能社会法治范式的法律人格安排需要更加充足的理论准备方能得到认可。

三、人工智能法律人格框架下的多层治理模式

(一)作为财产的人工智能

由于技术创新不应总是引起法律的变化,在法律变化之前,我们必须认真对待现有规则,并且努力使新情况适应现有秩序。在首例人工智能生成的作品著作权案件中,法院的判决就明确指出:若在现行法律体系内可以对其智力、经济投入予以保护,则不宜突破民事主体的基本规范。在法律不承认人工智能法律主体资格的情况下,人工智能最容易在传统法律中找到的定位是“财产”,但其不同于完全受制于人操控的“工具”。对于这种新类型的财产,可以按照民法典侵权责任编的相关规则确定侵权后果,按照数字电文缔约的法律规则确定意思表示主体,通过控制、所有和使用该财产的人来判断相关法律行为来源和法律效果归属。

在合同法律关系方面,利用人工智能从事缔约行为的由实际使用者承担相关的法律后果。根据我国民法典第137条的规定,相对人指定特定系统接收数据电文的,该数据电文进入该特定系统时生效;未指定特定系统的,相对人知道或者应当知道该数据电文进入其系统时生效。在自动化状态下,不得仅仅因为无自然人审查或干预这些系统进行的每一动作或由此产生的合同而被否定效力或可执行性,因为该系统各类行为的启动都必然是来自传统法律主体的指定。根据我国国家标准的规范,人工智能是指利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、技术、系统、产品以及服务。人工智能在侵权责任承担过程中,在现行法上可以分别认定为“网络服务”“场所服务”“产品”“物件”等不同的形式,分别适用网络服务提供者、网络用户、商业或公共场所经营者、产品质量侵权、物件损害等责任规则。为了明确人工智能的责任规则,应当通过修法或者法律解释的方式明确人工智能侵权的控制者责任和不同的归责原则,人工智能可解释性技术和责任鉴定技术由此成为划分责任的重要支撑。

(二)类推适用代理规则

如果创造新的法律主体是一项艰难的选项,对法律的文义解释也不足以解决社会中出现的新兴问题,那么类推适用可以算作一个广泛采用且简单易用的方法,其借助比喻的手段寻找出路。从技术的发展阶段而言,“人工代理”比“人工智能”更能准确地反映这项技术的本质,机器人也仅仅是通过代理的方式实现了人的能力的延伸。在代理关系中,人工智能可以被视为所有权人、操作员、开发者、算法训练人员、程序员、用户的代理人,委托人可以对人工智能进行监控。这一关系是从开启电源(创建代理)到关闭电源(终止代理)的代理,它可以在没有人类指示的情况下作为仆人向其主人提供持续的服务,也可以从其具有控制权的人类负责人那里接收指示和任务。

这种类推适用的基础有两个:其一,人工智能与代理人一样需要积极主动地与第三人进行互动,并且基于自己的能力作出判断和相关行为,自动化程度越高的人工智能则越是与代理人具有相似性;其二,代理提供了一个灵活可控的法律关系解释模型,在承认作为代理人的人工智能具有自主性的基础上,明确了委托人要对代理人的各类行为负责的根本原则。显然,代理规则与严格责任的发展趋势不谋而合,在欧盟于2019年4月发布的《可信赖人工智能的伦理指南》,就提出构建人工智能要维持对人类的代理,这也是将人工智能类推适用代理规则所具有的特殊价值。

在传统的民商事代理关系中,无论委托人还是代理人,均是具有行为能力和权利能力的法律主体。《美国代理法重述(第三版)》甚至在其术语条款中明确规定:不能将计算机程序视为代理程序。在这种类推适用的代理关系中,他们反对将履行代理职责的人工智能视为人,而是仅仅将它们视为代理工具。同时,对于代理工具可能超越委托人意图所造成的侵权后果,他们则主张扩大解释委托人的委托意思,并限定代理工具不具备超越权限的能力。与此同时,代理需要通过订立代理合同才能创建,代理规则中的代理人是存在代理权限和个人利益的,当其超越代理权限或者为代理人自身的利益从事相关的行为,委托人可以依法免除相关行为的法律责任。当人工智能类推适用代理规则时,就必须设定其代理合同的内容,否认人工智能的自身利益,同时认定其不存在代理权限疑问,以此实现人工智能自由决策和委托人视为责任人的目标。为了在不创建新法律主体的情况下适用代理规则,就必须对这些问题逐一作出新的解释,这一项工作的立法难度可能并不低于赋予人工智能法律人格。

总而言之,类推适用代理规则实质上给予了人工智能一种虚拟的法律主体资格,但这是一种各方都不认可的法律主体,其本质是充当委托人的“电子奴隶”。这种法律关系的设计确实能够兼顾人工智能的自主化需求和人类的风险防控目标,但是该机制设计无法通过简单的类推适用规则来解决,还必须根据人工智能的特点作出专项的法律解释或者与之有关的新立法。

(三)借用公司或财产法人的外壳

无论对法律主体资格采取“拟制说”还是“实在说”,现代法律体系中的法律主体成立条件都是根据法律规则进行设定。为了最大程度地融入现有法律制度,肖恩·拜仁在2014年提出了著名的公司制人工智能主体模式。根据肖恩·拜仁的观点,无论现行法律是否承认人工智能的法律人格,如果相关的个人和组织需要一个具有法律主体资格的人工智能,他们都可以借助现行的公司法制度来实现。

其基本方法包括四个步骤:

(1)有需求的人类或者企业按照有限责任公司的登记程序成立一家公司,最好是只有一个成员的“一人公司”;

(2)该公司的创始人按照公司决议程序通过一项经营协议,约定该公司将完全采取人工智能的自动化系统进行决策,并确定公司其他成员和行为如何受该人工智能决策系统约束的条款;

(3)公司创始人将与该人工智能系统相关的任何财产都转让给该公司所有;

(4)创始人退出公司的股东身份,从而创设了一家没有任何人类股东、完全由人工智能系统操控的公司法人。

这一方案以实际目的为出发点,在法律尚不直接承认人工智能法律主体资格的情况下,构建“零成员公司”让人工智能按照现行公司法人的方式运行,从而可以间接地实现人工智能取得法律人格所需要达成的各项目标。

对于借用公司的外壳创建人工智能的法律主体资格,得到了一些学者的支持。但也有学者提出反对意见:在现行法律制度中不存在“零成员公司”,尽管“有限责任公司”可以为各种商业模式提供一些灵活性的选择,但是,立法意图必须是人类将保留对有限责任公司运营的最终控制权。肖恩·拜仁在回应文章中进一步指出,公司制人工智能主体模式是在传统法律主体制度不足以应对的情况下所作的扩张解释,故而对于现行公司法律制度的解读不能停留在字面意思层面。在现行法律已经承认特殊例外的情况下(例如清算阶段)“零成员公司”可以继续存续,据此就应当承认“零成员公司”本身是可以存续的,现行法律也没有限制这种特殊例外情况下的存续时间。在美国法律体系下,只要任何一个州能够按照其解释理论创建“自治实体”,那么根据法律主体互认规则也会在其他地方得到承认。与此同时,这种情况下的人类创始人仍然与有限责任公司保持联系,只是为了实现人工智能的自治而自行脱离,这种结构安排可能存在被创始人破坏的脆弱特性,为此可以通过协议约定的完善来维持结构的稳定性。这种具有法律人格的人工智能在技术上也无需达到超级人工智能的水平,他们除了可以雇用人类员工以外,还可以通过目前的云计算经纪人或算法托管代理等方式保持其持续有效地运行。由此可见,公司制人工智能主体模式充分利用了合同架构的手段,通过技术措施、公司制度、合同法理论自治的方式实现了人工智能法律人格的部署,进而可以适用公司法人的各项行为能力、权利能力、管理义务和法律责任构建一个具有法律支撑的“自治实体”。

依托资产进行商业组织的设计与结构化商事交易中的“客体主体化”趋势密切相关。随着财产形态的变化和主体制度的创新,商事实践中不断涌现新的商事组织形态,如风险投资基金、对冲基金、私募基金和不动产投资信托等资产实体化。因出于保护交易安全的需要,将相关权利人对于财产的请求权进行隔离,被隔离出的资产实际发挥企业之作用。事实上,肖恩·拜仁所倡导的法人制度模式核心在于“零成员公司”,这种特征的组织也可以采取有限责任公司以外的其他主体类型,如财团法人。财团法人是指法律上对于为特定目的的财产集合赋予民事权利能力而形成的法人,我国的财团法人典型代表就是基金会。从基金会管理条例的规定看,基金会以公益为目的,没有会员,基金会的组织结构、财产管理方法等都由章程加以规定,而章程则由举办者拟定。由此可见,可以依托一定财产来设立基金会法人,而需要取得法人资格的人工智能实体本身就是一项重要财产,以此财产来设立法人在财团法人之中便可以顺理成章。

(四)设立新的法律主体资格

法律主体是法律制度之根,所有的权力、权利、义务、责任都是归根于这些法律主体。从民事主体范围的历史发展来看,民事主体的体系是不断发展的,具有包容性。人工智能是否可以获得法律主体资格,本质上也是由社会发展所决定的。从法律主体的扩展历史来看,人类取得法律主体资格与天赋人权密切相关,奴隶、妇女成为法律所承认的人都经历了漫长的权利斗争历史。公司取得法律主体资格则是为了节约交易成本而做的人为安排,特定财产取得法律主体资格则是为了促进财产有效利用(特别是鼓励公益)而做的安排。近年来,森林、山脉、河流在有些国家取得法律主体资格,如美国俄亥俄州的托莱多在2019年2月投票通过了“伊利湖权利法案”将该湖泊视为法律上拥有独立权利的人,这些做法是为了环境保护或者人文发展而做的专门立法。现代社会文化人类学甚至研究表明,宠物在未来非常容易获得法律和社会地位,这是由于宠物通常像家庭成员一样得到认可并受到这种对待。法律主体的范围并非一成不变,在具备正当理由的情况经过立法程序可以认可新的法律主体种类。

受法律主体资格扩张趋势的启发,可以借鉴适用于公司和其他非人类实体的法人资格的经验,通过新的立法授予人工智能以法律人格。为了防止法人资格被滥用的道德风险,将人工智能纳入法律主体范畴的同时,也可以设立法律人格否认规则让滥用责任限制规则的人承担风险,建立新兴的人工智能社会责任制度来确保其发展方向符合人类公认的价值,并建立人工智能登记制度和保险制度来认定和补充其作为主体的能力。我们对人工智能的控制越少,就需要更广泛的测试和更严格的治理,如借鉴公司信息公示制度,建立“人工智能阳光法”来满足相对人的知情权和公共监督的需求。本质上,赋予人工智能以法律人格是一种制度便利的选择,是从私法角度解决人工智能监管的一条路径,能够通过市场自治的方式促进人工智能的安全发展。有反对者认为,创设人工智能法律人格将导致责任制度被滥用,不利于保障人工智能产业的安全发展。公司法人创设的历史则表明,公司的出现也引发过类似的担忧,吉尔伯特和沙利文在1898年甚至写了一部名为《乌托邦有限公司》的歌剧来嘲讽当时公司法设置的有限责任制度。然而,公司在法律创设之后经过长期的发展已经成为我们社会的一个中心。尽管公司是看不见的实体,但是法律赋予公司法律人格后,通过制度上的实体掩盖实质上是让人类从各种可能的责任中脱离,员工的各种行为都是由公司出现在法庭。也即,拟制的法律主体可以成为代替人冲锋在第一线的实体,人类借助这种新的法律主体可以得到一定的自由解放。

结语

在各种鼓励或限制人工智能发展的政策、法律、伦理指南、技术标准、白皮书在全球范围内密集发布背景之下,人工智能已经并持续深入地成为我们日常生活的一部分,而人工智能是否可以成为法律上的主体是构建相关规则的基础命题。通过相关法律需求和应对方法的分析,可以断定人工智能的发展确实带来了一系列新的法律问题,但不能简单地从概念上直接排除人工智能应具有法律人格的可能性,同时也不能认为授予法律人格是唯一或者更佳的解决办法。人工智能技术如果构成对实在法的挑战,那么实在法就是无法回应的。如果实在法可以回应人工智能技术的社会问题,那么这种技术变革就没有形成挑战。法律制度可以选择解释或者修订现行法的方式满足所谓的人工智能法律人格需求,也可以采用法律人格制度来回应社会治理挑战中的问题。人工智能法律人格是智能社会发展中新型治理模式的选项,以功能主义的态度来进行解释论或立法论的探讨是看待人工智能法律人格问题的正确视角。

在讨论人工智能可否取得法律人格时,需要正确区分“人”和“法律人格”。授予人工智能法律人格的理由有两大类:基于意识自主的道德需求和基于法律关系安排的实践需求。但是,法律人需要讨论的仅仅是后者。法律人格是指私法上的权利和义务的归属之主体,即从权利义务之归属点来认识法律人格。生物意义上的人可以不是法律意义上的人,但生物意义上的人要成为法律意义上的人必须具备人格。法律人格从自然法向实定法的转换,使得人们更多地从法律关系的视角来解释其内涵,这与生物学或者哲学上具有自主意识的“人”存在本质差异。人们往往将人工智能可否获得主体资格与人类未来的发展命运相联系,认为人工智能不具有人的社会性,不能产生人类主体性所依赖的社会关系和实践基础。人工智能不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的,故而不足以取得独立的主体地位。这些观点显然是混淆了哲学上的“人”与法律上的“法律人格”,错误地认为,我们必须维护人类的法律主体地位,才能把握人类对整个社会发展的控制权。事实上,“法律人格”仅仅是法律对社会秩序进行安排时根据需求而总结出来的通用概念,这是法律上的拟制而非哲学上的陈述。尽管各类法律主体所拥有的法律人格都是完整的,没有部分法律人格或者全部法律人格之说,但不同法律主体所拥有的权利能力是有千差万别的,即便人工智能取得法律主体资格也不可能取得与人类同等的权利。人工智能可能在技术的不同阶段取得不同范围的法律主体资格,如何安排和取舍人工智能的各项权利义务也是是否授予人工智能法律主体资格所要考察的核心问题。

如果选择承认人工智能的法律主体资格,将等同于构建智能社会的全新法律范式,这需要科学地设置认定范围和相关的法律制度。法律人格延伸到人类之外的自然界和社会,反映了文化、科学和法律之间广泛和灵活的协作过程,可以帮助我们重构一个价值多元、治理复杂的未来社会。但是,非典型法律人格的取得必须得到社会的广泛认可,其中还必须考虑到已经存在的主体的权利,分析这种法律创新将如何符合先前的法律秩序,从而确保非典型法律人格服务于人类文明发展的共同需求。对于人工智能取得法律主体资格的条件,有人提出了6项准入标准,包括社会认可、自主智能、平等共识、适应变化、普遍信赖和公开登记。还有人提出4项综合条件,包括技术上可以划定人工智能系统的边界,经济上能够显著增加社会福利,法律上存在先于规则不足以应对而需要根本改变的需求,精神上存在道德责任和推理能力。这些条件都是值得参考的判定标准,与此同时,如果机器没有承担责任的能力(独立的财产等),那么不论是侵权或是违约带来的赔偿责任等,其实都需要链接到其他主体上来完成最终的责任分配,所以能够取得法律主体资格的人工智能必需有一定的财产基础,其可以是该人工智能本身达到法定的财产价值,或者是通过注册资金等方式取得身外的财产。关于公开登记的要求也应该是毫无疑问的,类似于汽车达到一定时速需要注册,无人机达到一定起重载荷需要注册一样,人工智能如果从事无监督的自主行为且严重影响他人权益的也应当取得注册登记方可使用。

总而言之,尽管坚决反对或者坚决支持赋予人工智能以法律人格的观点都存在,但是大多数讨论人工智能法律人格的观点都存在一种折中的趋势,他们认为是否赋予人工智能法律人格是存在条件的,而且赋予人工智能何种程度的法律人格也需要深入分析。这种折中的趋势更加有助于我们理解人工智能法律人格问题的核心。根据笔者分析可知,现行法律上对人工智能的法律人格需求并非那么迫切,但是智能社会的发展很可能会促进这一现状的变化。这意味着我们对人工智能法律地位的认识将层次递进:第一阶段是将人工智能视为财产,尽管其可以代替人从事一些行为,其法律后果都直接归系于人;第二个阶段的人工智能可以自主享有一些权利,也需要直接履行一些义务,是在当前法律主体制度不变情况下所作的具体规则修订;第三个阶段的人工智能可能会被承认为一类新的法律主体,此时需要专门的人工智能组织法。数千年的法律发展历史表现法律是可以因技术发展而产生变革的,科学将朝着所有生物都是算法、生命就是数据处理、智能与意识分离的方向发展,超智能算法将比我们更了解自己,这可能导致超级智能算法将决定社会和人类的发展方式。但是,即便未来的立法让人工智能经取得了法律主体资格,该主体背后依然是人:人可以成为其代理人,人可以成为其监护人,法律人格被否认时需要该创建人兜底,所以人类整体的安全和文明进步依然是我们法律变革中永远不变的目标。