摘要
随着⾃动驾驶汽车等智能机器⼈的⾃主性、学习和适应能⼒不断增强,⼀⽅⾯很难将其看作是⼈类⼿中的简单⼯具;另⼀⽅⾯伴随⽽来的可预测性、可解释性、因果关系等问题将使得证明产品缺陷责任等既有侵权责任变得越来越困难,可能带来责任鸿沟,使得被侵权⼈的损害难以得到弥补。
⾯对可预期的责任挑战,侵权法、合同法等法律规则的不充⾜性和局限性将逐渐显现出来,对新的法律规则的需求也将变得越来越迫切。为此,欧盟、英国、美国等已经开始探索新的责任框架。
为了更合理、有效地对智能机器⼈造成的损害分配法律责任,严格责任、差别化责任、强制保险和赔偿基⾦、智能机器⼈法律⼈格等都是潜在的法律⽅案;但⽴法者或者法院最终选择何种⽅案,需要进⾏全⽅位的论证,以便实现法律的利益平衡⽬的。
01
引⾔
“计算机仅能执⾏强制的指令——对其编程不是为了使其作出判断。”纽约⼀家法院曾经如是说。这或许
可以代表公众对计算机和机器⼈的固有看法。但是,⼈⼯智能技术的进步,正使这⼀观点变得陈腐,甚⾄可能成为⼀个偏见。2010年以来,受到⼤数据、持续改进的机器学习和更强⼤的计算机这三个相互加强的因素推动,⼈⼯智能技术在ICT领域快速发展,不断被应⽤到⾃动驾驶汽车、医疗机器⼈、护理机器⼈、⼯业和服务机器⼈以及互联⽹服务等越来越多的领域和场景。国外⼀些保险和⾦融公司以及律师事务所甚⾄开始⽤具有认知能⼒的⼈⼯智能系统置换⼈类雇员。从国际象棋、智⼒竞赛(⽐如“Jeopardy!”),到围棋、德州扑克,再到医疗诊断、图像和语⾳识别,⼈⼯智能系统在越来越多的领域开始达到甚⾄超过⼈类的认知⽔平,让其辅助甚⾄代替⼈类进⾏决策,不再是空中楼阁。
现在有理由预见,在不远的将来,交通运输、医疗、看护、⼯业和服务业等诸多领域的各式各样的智能机器(Intelligent Machine)或者智能机器⼈(Smart Robot)将成为⼈类社会中司空见惯的事物。与此同时,智能机器⼈的民事责任(当然也有⾏政责任和刑事责任,但不在本⽂讨论之列)将⽇益浮出⽔⾯,成为⼀个不容回避的法律问题,需要法律和法院认真对待并回应。当⾼度⾃主、脱离⼈类控制且独⽴运作并作出判断的智能机器⼈造成⼈⾝或者财产损害,如何分配并承担法律责任?当前以⼈类⾏为者为中⼼的侵权责任和以产品⽣产者为中⼼的产品责任,在应对这⼀问题时,暴露出局限性。本⽂旨在对此进⾏论证并提出初步的建议。
为了讨论的⽅便,下⽂将不使⽤⼈⼯智能、⼈⼯智能系统等模糊性概念,
转⽽采⽤智能机器⼈这⼀概念,并将其界定为具有以下特征的实体:
(1)通过传感器、与其环境进⾏数据交换以及数据分析等⽅式获得⾃主性(Autonomy)的能⼒;
(2)从经历和交互中学习的能⼒;
(3)具有可见形体;
(4)随其环境⽽调整其⾏为和⾏动的能⼒。按照这⼀定义,⾃动驾驶汽车、医疗机器⼈、护理机器⼈等都可以被智能机器⼈涵盖,⽽⾃主性(包括⾃主进⾏决策)和学习能⼒则是其核⼼特征;⽽且在某种意义上,已经没有很强的理由将
通用自动驾驶汽车机器⼈涵盖,⽽⾃主性(包括⾃主进⾏决策)和学习能⼒则是其核⼼特征;⽽且在某种意义上,已经没有很强的理由将其继续看作是供⼈类驱使的被动⼯具。
02
智能机器⼈对侵权责任、产品责任等传统责任框架提出的挑战
传统的机器,⽆论多么先进,在评定法律责任时,存在⼀个决定性的共同特征。在每⼀个案件中,机器的功能和决策总是可以直接追溯到假借⼈类之⼿嵌⼊到其中的设计、编程和知识,或者存在对机器施加控制的⼈类⾏为者。这些机器,⽆论多么复杂,终归是为⼈类所使⽤的⼯具⽽已。以汽车等⼯具
性机器为例,当发⽣事故、造成⼈⾝或者财产损害,要么可以以未尽到合理注意义务为由追究使⽤者的过错侵权责任,要么可以以产品具有缺陷为由追究⽣产者的产品缺陷责任。这意味着,传统的机器不具有法律⼈格的属性,仅仅是个⼈、公司或者其他法律上的“⼈”的⼯具或者代理,这些法律主体在既有法律之下对其各⾃的⾏为负责。
但是,在不远的将来,完全⾃主的机器将被推向市场,⾃动驾驶汽车有望成为最早的⼀批。为此,社会将需要考虑,在就⾃动驾驶汽车等智能机器⼈的侵害⾏为分配法律责任时,既有的责任规则是否可以游刃有余。毕竟,未来的⾃主智能机器将有能⼒完全⾃主⾏为,不再是为⼈类所使⽤的被动⼯具;虽然⼈类设计、制造并部署了它们,但它们的⾏为却不受⼈类的直接指令约束,⽽是基于对其所获取的信息的分析和判断,⽽且,它们在不同情境中的反应和决策可能不是其创造者可以预料到或者事先控制的。完全的⾃主性意味着新的机器范式:不需要⼈类介⼊或者⼲预的“感知-思考-⾏动”。
(⼀)过错侵权责任难以适⽤于智能机器⼈
在实际运作过程中脱离⼈类的控制,是智能机器⼈的⼀个核⼼特征。这⼀现象使得以⼈类⾏为者的注意义务为前提的过错侵权责任难以适⽤于因智能机器⼈的使⽤⽽产⽣的加害⾏为,因为智能机器⼈是独⽴⾃主地运作的,缺乏对其进⾏直接操作或者控制的特定个⼈。
以⾃动驾驶汽车为例,国际汽车⼯程师协会(SAE International)将⾃动驾驶技术划分为六个等级:
⾮⾃动(Level 0),驾驶员辅助(Level 1),部分⾃动(Level 2),有条件⾃动(Level 3),⾼度⾃动(Level 4),以及完全⾃动(Level 5)。本⽂不讨论在驾驶员辅助和部分⾃动这两种模式下,驾驶员和汽车制造商之间的责任分配,仅讨论当⼈类使⽤者完全不参与驾驶时的责任承担。当⾃动驾驶汽车达到四级(⾼度⾃动)或者五级(完全⾃动)时,⼈类使⽤者的⾓⾊从驾驶者转变为乘客,不再需要对⾏车状况和环境进⾏监视或者在紧急情况下进⾏操作。因此,当四级以上的⾃动驾驶汽车发⽣事故、造成损害时,即使⼈类使⽤者处在驾驶位上,也⽆法诉诸过错侵权,让⼈类使⽤者承担民事责任。在此种情形下,加害⾏为、因果关系和过错都不能归咎于⼈类使⽤者。
不参与驾驶使得⼈类使⽤者不必负担驾驶者在汽车驾驶过程中所应尽到的合理注意义务,只要不⼲扰⾃动驾驶系统,他甚⾄可以在驾驶位上随⼼所欲,包括睡觉、玩⼿机等。当乘客乘坐的是⾃动驾驶出租车时,情况就更是如此,缺少⼈类驾驶者使得过错侵权责任⽆从适⽤。但在另⼀个层⾯,注意义务的承担者从⼈类驾驶者转移到了⾃动驾驶系统;可以肯定的是,适⽤于⾃动驾驶汽车的注意义务标准必然不同于适⽤于⼈类驾驶者的注意义务标准。
半个多世纪以前,美国法院在Arnold诉Reuther案中对此进⾏了论证。在该案中,原告Arnold⼥⼠在不遵守交规的情况下横穿马路时,被被告Reuther先⽣驾驶的汽车撞伤,Arnold于是指控Reuther过失侵权。Arnold主张,Reuther有“最后明显机会”(Last Clear Chance)来避免车祸,但其未能做到,因⽽应为此承担责任。法院对这⼀观点不予认可,认为:“⼀个⼈⽆论多么⾼效,都不是⼀个机械的机器⼈,
不拥有像雷达机那样,在危险具体出现之前将其发现的能⼒。必须为⼈类的弱点和反应留出⼀定的余地,⽽如果这样的余地必须要求⼈类在零点⼏秒内作出反应,并且不能像现代机械装置那样,以机械的速度和精度作出反应,那么就必须承认,Reuther作为⼀个普通⼈,再怎么做也不能避免因Arnold的过失⽽给她本⼈招来的不幸。”
因此,在涉及⾃动驾驶汽车的第⼀起事故案件中,法院将不会问⾃动驾驶汽车是否像⼀个理性⼈⼀样⾏为。Arnold诉Reuther案的核⼼问题有关过失:Reuther在当时的情况下是否作出了合理的⾏为?但是对于⾃动驾驶汽车,由于没有⼈对其施加直接控制,问题的核⼼将是汽车⾃⾝的表现是否达到应然的状态,⽐如是否达到既定的⾏业标准。由于⾃动驾驶汽车不是有效的法律主体,询问汽车⾃⾝是否尽到所应负担的注意义务,将是不切实际的;于是,需要诉诸产品责任,寻让⾃动驾驶汽车的⽣产者承担责任的事由。
(⼆)智能机器⼈的产品责任及其挑战
在我国,《侵权责任法》《产品质量法》《消费者保护法》等法律对产品责任作出了规定。具体⽽⾔,因产品存在缺陷造成他⼈损害的,被侵权⼈可以向产品的⽣产者或者销售者请求赔偿。通说认为,产品责任属于⽆过错的严格责任,只要产品存在缺陷,⽣产者就应当承担侵权责任,⽆需证明其存在过错。虽然被侵权⼈可以选择向⽣产者或者销售者请求赔偿,但这两个主体之间实际上构成不真正连带责任,向被侵权⼈承担侵权责任的⼀⽅可以向有过错的另⼀⽅进⾏追
赔偿,但这两个主体之间实际上构成不真正连带责任,向被侵权⼈承担侵权责任的⼀⽅可以向有过错的另⼀⽅进⾏追偿。因此,当⽆⼈进⾏操作的⾃动驾驶汽车等智能机器⼈造成⼈⾝或者财产损害时,被侵权⼈可以向缺陷产品的制造商主张产品缺陷责任,需要证明:产品有缺陷,损害事实的存在,以及产品缺陷和损害事实之间存在因果关系。
产品缺陷是产品责任的⼀个核⼼概念,各国通说⼀般认为缺陷主要包括设计缺陷、制造缺陷和警⽰缺陷,我国关于产品缺陷的认定标准体现在《产品质量法》第46条,包括“不合理危险”标准和产品质量标准。此外,《产品质量法》还为产品⽣产者提供了免责事由,包括:未将产品投⼊流通;产品投⼊流通时,引起损害的缺陷尚不存在;以及将产品投⼊流通时的科学技术⽔平尚不能发现缺陷的存在。只要产品⽣产者能够证明存在免责事由,就不承担赔偿责任。
在法律考虑赋予⾃动驾驶汽车等智能机器⼈法律地位之前,其在法律上的地位就依然是物,落⼊产品的范畴是不成问题的,产品责任⾃然也就有适⽤的余地,只要被侵权⼈可以证成产品缺陷责任。为了讨论的⽅便,笔者将分两种情况来论证。
1.智能机器⼈涉及⼈为(⾮操作者)失误
证明产品存在缺陷可能是困难且受争议的,但如果被侵权⼈的损害能够归因于因制造商的⼈为失误⽽造成的产品缺陷,那么⾃动驾驶汽车等智能机器⼈的⾃动化程度再怎么⾼,也不会给既有的产品责任
制度带来⼤的挑战。
按照我国的《产品质量法》,不符合国家标准或者⾏业标准的产品被认为具有缺陷。以Arnold诉Reuther案为例,假设Reuther先⽣乘坐的是⼀辆⾃动驾驶汽车,坐在后排,该汽车在距离Arnold⼥⼠15英尺时检测到了她并采取了紧急制动,但未能避免碰撞。再假设⾃动驾驶汽车⾏业存在⼀个“碰撞避免”标准:如果障碍物(包括⼈类)在距离汽车12英尺时被检测到,那么⾃动驾驶汽车必须能够在其⾏进路线上检测到障碍物并避免碰撞。
显然,在这种情况下,该⾃动驾驶汽车不符合这⼀⾏业标准,具有不合理危险,因为按照这⼀⾏业标准,碰撞本应避免。如果我们将这⼀⾏业标准换为15英尺,⽽将该⾃动驾驶汽车检测到Arnold的距离换为12英尺,此时证明缺陷的存在将很困难,即使依据《美国侵权法第三次重述》中的“消费者期待”标准(主要是指产品存在“不合理危险”缺陷)和风险-效⽤标准(产品的可预见的风险可以通过采取合理的替代性设计予以消除),情况也是如此。
此外,证明存在制造缺陷(⽐如部件失灵)或者警⽰缺陷(⽐如未能合理告知消费者如何操作智能机器⼈;在部分⾃动驾驶的情况下需要⼈类驾驶者保持警惕并进⾏操作的,如果制造商未能告知消费者如何进⾏操作,就需要承担产品缺陷责任),同样可以使被侵权⼈获得赔偿。
但问题是,⼈⼯智能技术的发展使得⾃动驾驶汽车等完全独⽴⾃主的智能机器⼈的出现成为可能,这
带来的直接结果就是,⼀⽅⾯,证明缺陷尤其是⼈⼯智能系统层⾯的缺陷将变得异常困难,另⼀⽅⾯,事故的发⽣可能⽆法合理因归于智能机器⼈的设计或者制造缺陷。这将给产品责任带来直接的挑战。⾯对⾃主智能机器⼈,⼈们将需要开始审视既有的产品责任制度能否在制造商利益和消费者利益之间实现平衡。
2.智能机器⼈涉及⽆法解释的事故
产品责任只能让制造商对因产品存在缺陷⽽造成的侵害⾏为承担民事责任,但问题是,智能机器⼈的⼀些新特征可能使得⽆法将事故的责任分配给⽣产者等既有法律主体,尤其是当出现不能合理推断出事故是由设计或者制造缺陷造成的情形之时。虽然⾃动驾驶汽车普遍被认为⽐⼈类驾驶更安全,⽐如,麦肯锡公司的⼀份研究报告发现,⾃动驾驶汽车将使交通事故减少90%;但是⾃动驾驶汽车对交通事故并⾮具有完全的免疫⼒,⽽⾃主性、可预测性、可解释性、因果关系等因素将极⼤增加事件的⽆法解释性,带来责任鸿沟。具体论证如下。
第⼀,⾃主性与可预测性(Foreseeability)。如前所述,⾃动驾驶汽车等智能机器⼈区别于传统的机器的最⼤特征在于具有⾼度的甚⾄完全的⾃主性。⽆论采⽤何种机器学习⽅法,当前主流的深度学习算法都不是⼀步⼀步地对计算机编程,⽽是允许计算机从数据(往往是⼤量数据)中学习,不需要程序员作出新的分步指令。因此,在机器学习中,是学习算法(Learning Algorithm)创建了规则,⽽⾮
程序员;其基本过程是给学习算法提供训练数据,然后,学习算法基于从数据中得到的推论⽣成⼀组新的规则,称之为机器学习模型。这意味着计算机可被⽤于⽆法进⾏⼿动编程的复杂认知任务,⽐如图像识别、将图⽚翻译成语⾳、汽车驾驶等。
回到⾃动驾驶汽车,⾃动驾驶系统利⽤⼀系列雷达和激光传感器、摄像头、全球定位装置以及很多复杂的分析性程序和算法等,像⼈类⼀样驾驶汽车,⽽且做得更好。⾃动驾驶汽车“观察”路况,持续注意其他汽车、⾏⼈、障碍物、绕⾏道等,考虑交通流量、天⽓以及影响汽车驾驶安全的其他所有因素并不断调整其速度和路线。⽽且⾃动驾驶汽车被编程来避免与⾏⼈、其他车辆或者障碍物发⽣碰撞。所有这⼀切都是机器学习的结果。因此可以说,在每⼀个现实情境中,都是⾃动驾驶汽车⾃⾝在独⽴判断和决策,虽然是程序员设定了学习规则。学习能⼒和适应能⼒的存在使得预测⾃动驾驶汽车在特定情境中的⾏为成为⼀个问题。
此外,⼈类决策系统与现代⼈⼯智能系统存在⼀个本质上的区别,正是这⼀区别使得⼈类⽆法准确预知⼈⼯智能系统针对某个问题的解决措施。受限于⼈类⼤脑的认知能⼒,为了作出决策,⼈类⽆法在有时间限制的情况下分析所有的相关信息,所以⼈类常常退⽽求其次,选择⼀个⾃⼰满意的解决⽅法,⽽⾮⼀个最佳化的解决⽅法,经济学家Herbert Simon称之为“满意法”。
电脑计算能⼒和机器学习⽅法的不断提⾼,使得现代⼈⼯智能系统能够在有限的时间内精确计算所有
的可能性,⽽且⼈⼯智能系统本质上不受提前预置的概念、经验法则、传统智慧等因素的限制,从⽽使其能够选择⼈类完全没有考虑过或者可能会实施的解决⽅案。正是这种能够作出独特决策的能⼒或者说⾃主性,让⼈⼯智能系统能够应⽤于更加⼴泛的领域,同时也让⼈⼯智能系统的设计者具有赋予⼈⼯智能系统这项能⼒的经济动⼒。
所以,尽管⼈类设计并制造了⾃动驾驶汽车等智能机器⼈,但却可能⽆法预见其具体决策,然⽽这种⽆法预见性可能正是系统的设计者所期待的。随着更加通⽤化的⼈⼯智能的发展以及机器学习技术的进步,⼈⼯智能的⾏为和决策的不可预见性问题将会更加频繁地出现,⽽且程度会不断加深。
更进⼀步,⾃动驾驶汽车可能“打破”预先设定的规则,⼤⼤超出其设计者的预期。⼈们⼀直担⼼,赋予机器⾃主“思考”的能⼒可能导致其有能⼒违反被给予的“规则”,以⼈们意想不到的⽅式⾏为。这不纯粹是想象,已经有证据表明⾼度“智能”的⾃主机器可以学习“打破”规则以保护其⾃⾝的⽣存。以⾃动驾驶汽车为例,尽管模拟测试对其⾏为和决策意味重⼤,美国交通部在其发布的《联邦⾃动驾驶汽车政策》中也强调模拟能够代表复杂的现实环境的测试环境的重要性;但是⾃动驾驶汽车脱离制造商控制、进⼊流通领域之后的学习和经历同样影响其⾏为和决策。新的数据输⼊可能使⾃动驾驶汽车进⾏调整和适应,导致其⾏为和决策超出预先设置的规则,这在理论上并⾮不可能。
再者,测试环境并不能穷尽所有的现实可能性,当异常情况(Novel Situation)出现时,⾃动驾驶汽
车必须在缺乏预先设定的规则的情况下,依据其⾃⼰创建的规则,真正独⽴⾃主地作出决策。对于这种偏离预期的⾏为,以产品缺陷这⼀事由让⽣产者承担责任,难以在侵权法上得到证成。
第⼆,可解释性(Interpretability)。通常,当⼈类驾驶者造成交通事故,诉讼双⽅通过举证、质证等程序性⼿段,完全可以还原并查明事故发⽣的过程,从⽽决定⼈类驾驶者是否履⾏了合理的注意义务。事故的可解释性使得因传统的交通事故⽽产⽣的法律纠纷可以按照既有法律框架得到有效解决。但是,现代⼈⼯智能系统越来越成为⼀个“⿊箱”,所有决策都存在于这个“⿊箱”中,⾃动驾驶汽车等智能机器⼈也不例外。
⽽且,虽然学习算法可能是公开和透明的,但它产⽣的模型可能不是,因为机器学习模型的内部决策逻辑并不总是可以被理解的,即使对于程序员也是如此。因此,即使设计者可能也⽆从知晓系统如何进⾏决策,更别提普通公众了。⾏为和决策的不透明性和不可解释性带来的直接结果就是,当⾃动驾驶汽车造成交通事故时,⼈们将很难查明事故背后的原因。即使法律要求算法必须公开、透明,或者可以在法庭上对智能机器⼈的算法系统及其决策进⾏交叉询问,当事⼈也会⾯临技术性障碍,在成本上并不经济。此时,谁来承担法律责任,将成为⼀个⼤⼤的问题。
第三,因果关系(Causality)。⼀⽅⾯,如前所述,⼈⼯智能系统的⼀些新特征使得事故的可解释性⼤打折扣,带来归因难题;另⼀⽅⾯,由于⾃动驾驶汽车等智能机器⼈⾃带学习能⼒和适应能⼒,其“
后天的”(区别于“先天的”系统设计和训练)学习和经历可能成为此类系统造成的任何损害的⼀个替代原因(Superseding Cause),⾜以使侵权⾏为事实上的⾏动者免于承担责任。
替代原因之所以可能出现,是因为⼀个能够⾃主学习的⼈⼯智能系统的⾏为部分依靠其后天的经历,即使最细⼼的设计者、编程者以及制造者都没有办法控制或者预期⼈⼯智能系统在脱离他们之后将会经历些什么。
因此,当⾃动驾驶汽车等智能机器⼈发⽣事故、造成损害,⽽事故本⾝⼜难以解释或者不能合理追溯到设计缺陷或者制造缺陷,或者损害是因⼈⼯智能系统难以为设计者所预测到的特殊经历造成的,此时,让设计者承担责任将会导致不公平和⾮正义,但这样却会导致被侵权⼈难以获得赔偿。于是,法院⾯临的挑战是,为了保证被侵权⼈能够得到赔偿,就必须解决⼈⼯智能系统的可解释性、可预见性以及因果关系等问题。
(三)替代责任的适⽤可能性
如果智能机器⼈实际上“代理或者代表”某个法律主体从事⾏为或者进⾏决策,那么可以⽐照⽗母对未成年⼈⼦⼥的责任或者说监护⼈对被监护⼈的责任,或者雇主对雇员的责任,让部署智能机器⼈的⼈承担替代责任。其实在合同领域,智能软件、程序化交易、智能合约等现象就给合同责任带来挑战,引起学界讨论,但是对于算法和程序做出的交易,各国⼀般将智能软件看作是通信⽅式,⽽⾮认为智能
软件和部署智能软件的⼈之间存在代理关系或者雇佣关系。因此,借助智能软件形成的所有合同法律关系都归属于部署智能软件的⼈,由其享有合同权利并承担合同义务。
按照这⼀思路,在某些情况下,可以让部署智能机器⼈的⼈承担替代责任。⽐如,如果⼀个公司利⽤⽆⼈机送货,或者利⽤⾃动驾驶出租车运送乘客,或者利⽤服务机器⼈提供家政、酒店、外卖等领域的服务,那么其就必须对智能机器⼈
利⽤⾃动驾驶出租车运送乘客,或者利⽤服务机器⼈提供家政、酒店、外卖等领域的服务,那么其就必须对智能机器⼈的⾏为负责。但是,如果我们类⽐雇主对雇员的责任,雇主的替代责任以雇员在从事雇佣活动中造成的损害为限,不对雇员的职务范围以外的或者⾮职务的加害⾏为负责,那么如何确定部署智能机器⼈的⼈对智能机器⼈的责任限度和范围,将是法律必须回应的⼀个问题。更进⼀步,如果将智能机器⼈看作是事实上的雇员,为了明确雇主的责任,就必须提出判断智能机器⼈的职务⾏为和⾮职务⾏为的标准。本⽂仅提出这么⼀种可能性,这⾥不做进⼀步探讨。
03
欧盟开始为智能机器⼈探索新的民事责任规则
⾯对⼈⼯智能的快速发展,⼀些国家开始探索相关⽴法和监管。
在美国,美国交通部2016年9⽉出台的《联邦⾃动驾驶汽车政策》虽未涉及责任问题,但其中提出的⾃动驾驶汽车安全标准却可以为举证产品责任提供必要的参考;此外,佛罗⾥达州、密歇根州等涉及⾃动驾驶的⽴法均规定,车辆在被第三⽅改造为⾃动驾驶汽车后,车辆的原始制造商不对⾃动驾驶汽车的缺陷负责,除⾮有证据证明车辆在被改造为⾃动驾驶汽车前就已存在缺陷,这⼀规定实际上有利于厘清各⽅的法律责任。
在德国,监管机构开始考虑出台新规,要求汽车⼚商在⾃动驾驶汽车中安装⿊匣⼦,以便在事故发⽣后判定法律责任,开展保险理赔⼯作,这表明德国已经开始关注⾃动驾驶汽车的透明性、可解释性以及可追溯性问题。
在英国,⾃动驾驶汽车中⼼(Centre for Connected and Autonomous Vehicles,缩写为CCAV)曾发布两份报告,在其中对保险和产品责任提出建议;报告提议将强制性的机动车保险延伸到⾃动驾驶汽车以便将产品责任囊括进去;新的保险框架旨在保护⾃动驾驶汽车事故中的受害者,受害者将可以直接向汽车保险⼈请求赔偿,⽽保险⼈将有权向依据既有法律负有责任(⽐如产品责任)的主体进⾏追偿。
在智能机器⼈民事⽴法⽅⾯,当属欧盟动作最⼤。早在2015年1⽉,欧盟议会法律事务委员会(JURI)就决定成⽴⼀个⼯作⼩组,专门研究与机器⼈和⼈⼯智能的发展相关的法律问题。
2016年5⽉,法律事务委员会发布《就机器⼈民事法律规则向欧盟委员会提出⽴法建议的报告草案》,同年10⽉发布《欧盟机器⼈民事法律规则》。在这些研究和报告的基础上,2017年2⽉16⽇,欧盟议会投票表决通过⼀份决议,在其中提出了⼀些具体的⽴法建议,要求欧盟委员会就机器⼈和⼈⼯智能提出⽴法提案(在欧盟只有欧盟委员会有权提出⽴法提案,但欧盟委员会并⽆义务遵守这⼀要求,不过如果其拒绝这么做,就必须陈述其理由)。
法律事务委员会提出的⽴法建议涉及多个⽅⾯,主要包括:成⽴⼀个专门负责机器⼈和⼈⼯智能的欧盟机构;确⽴⼈⼯智能伦理准则;为智能机器⼈重构责任规则;长期来看,考虑赋予复杂的⾃主机器⼈法律地位(所谓的“电⼦⼈”)的可能性;知识产权⽅⾯应明确⼈⼯智能的“独⽴智⼒创造”;注重隐私和数据保护;推进标准化⼯作和机器⼈的安全可靠性;针对具有特定⽤途的机器⼈和⼈⼯智能系统(主要包括⾃动驾驶汽车、护理机器⼈、医疗机器⼈、⽆⼈机、⼈类修复和增强等)出台特定规则,进⾏特殊监管;关注⼈⼯智能的社会影响;以及加强法律政策领域的国际合作。
(⼀)需要新的责任规则
在法律事务委员会看来,如今的机器⼈已经具有⾃主性和认知特征,也即,具有从经历中学习并独⽴⾃主地作出判断的能⼒,⽽且可以实质性调整其⾏为,从机器⼈的侵害⾏为中产⽣的法律责任由此成为⼀个重⼤问题。机器⼈的⾃主性越强,就越难将其当成是其他主体(⽐如制造商、所有⼈、使⽤者
等)⼿中的简单⼯具,这反过来使得既有的责任规则开始变得不⾜,因⽽需要新的规则。新的规则着眼于如何让⼀台机器为其⾏为或者疏忽⽽部分或者全部地承担责任。结果就是,解决机器⼈是否应当拥有法律地位这⼀问题将变得越来越迫切。最终,法律需要对机器⼈的本质问题作出回应,其是否应当被当成是⾃然⼈、法⼈、动物抑或物,或者法律应当为其创设新类型的法律主体,在权利、义务、责任承担等⽅⾯具有其⾃⾝的特性和内涵。
在⽬前的法律框架下,机器⼈⾃⾝不对因其⾏为或者疏忽⽽给第三⽅造成的损害承担责任。⽽且,既有责任规则要求机器⼈的⾏为或者疏忽能够归因于制造商、所有⼈、使⽤者等特定法律主体,并且这些主体能够预见并避免机器⼈的加害⾏为。更进⼀步,关于危险物品的责任和产品责任可以让这些法律主体为机器⼈的⾏为承担严格责任。
但是,如果机器⼈⾃主地作出决策,传统的责任规则就将不⾜以解决机器⼈的责任问题,因为传统的规则将可能不能确定责任⽅并让其作出赔偿。此外,现有法律框架的缺点在合同责任⽅⾯更是显⽽易见的,因为机器⼈现在能够选择合同当事⼈,磋商合同条款,缔结合同并决定是否以及如何执⾏所达成的合同,这些现象使得传统的合同规则⽆法适⽤。在⾮合同责任⽅⾯,既有的产品责任规则仅能涵盖因机器⼈的制造缺陷⽽造成的损害,同时受害⼈必须能够证明存在实际损害、产品缺陷且缺陷与损害之间具有因果关系。
发布评论