2024-09-11
2024-09-11
2024-09-11
2024-09-09
2024-09-09
2024-09-09
2024-09-06
2024-09-06
2024-09-06
2024-09-06
(文/北京大成律师事务所高级合伙人肖飒)
引言
自动驾驶时代来临,司机的身影消失。但没有了司机,交通事故谁来负责?在AI刚爆火时,有个半调侃的笑话很出名:AI肯定不能替代会计和律师,因为一旦出了事,AI负不了责,但会计和律师可以。这个笑话现在同样可以适用在自动驾驶领域,可谓又尴尬又不得不面对:自动驾驶取代了司机,但如果自动驾驶车辆撞了人造成严重的人身损害,谁来承担刑事责任?
在“撞了人谁负责”这种直白的问题之外,还有一个问题可能更加棘手。可以想象这样一个情景:某一天,一台自动驾驶汽车在经过滨海公路转弯路段时突遇“鬼探头”——几个小孩子突然横越车道。现在自动驾驶系统面临两个选择:
第一,汽车紧急制动,在保护孩童生命的同时,极有可能因制动导致车辆失控跌下悬崖,那么车内的乘客就有生命危险;
第二,放弃紧急制动以避免车辆失控,冒着孩童死亡的风险保护车内的乘客。
就目前的自动驾驶技术来说这种道德困境可能是杞人忧天,毕竟当下萝卜快跑一类自动驾驶汽车的车速远没有达到要考虑紧急制动车辆失控的问题的程度,况且根据地方规定的要求(典型如北京地区)自动驾驶汽车还需要配置安全员,更是杜绝了这种情况的发生。然而这个故事并非无稽之谈,而是德国伦理委员会在《伦理委员会关于自动驾驶和互联网驾驶的完整报告》中列举的自动驾驶必须要考量的案例。在L4-L5级别的自动驾驶中,编程者或者AI必须要决定在“两难抉择”之下应当优先保护哪一个个体,解决自动驾驶下的“生命安全冲突”,即“保大保小”的电车难题。
自动驾驶汽车发生交通事故造成人身损害由哪个主体负责?自动驾驶汽车面对生命安全冲突时应当如何处理电车难题?这是自动驾驶商业化不能回避的两个重要议题。
一、自动驾驶的定义
最为直观的自动驾驶概念很简单:车辆可以不依靠驾驶员而完成驾驶任务。把握这一自动驾驶的本质之后,经过学术的转译容易得到自动驾驶概念的经典定义:利用传感器、控制系统、AI等技术使车辆能够在没有驾驶员直接操作的情况下,自主地感知环境、做出决策并执行驾驶任务的技术。
国际上一般采取美国汽车工程学会(SAE)的L0-L5等级划分方法划分自动驾驶的驾驶级别。L0为无自动驾驶,L5为完全自动驾驶,脱离驾驶员的程度逐级递增。我国工信部发布的《汽车驾驶自动化分级》则规定了我国的自动驾驶分为0-4级,其中4级为完全自动驾驶。虽然各国在对自动驾驶的划分标准上有些许差异,但都为自动驾驶技术提供了一个统一的等级划分框架,以便监管部门、制造商和消费者了解不同级别的自动化功能。
之所以谈论自动驾驶的定义,是因为在讨论“撞了人谁负责”这种问题时,我们必须要明确在SAE的定义中的L0-L3级别的自动驾驶完全不存在该问题。在L0-L3级别的自动驾驶汽车中,驾驶员仍然居于掌控、或者是与AI共同掌控汽车的地位,驾驶员应当对事故负责,这与一般的交通事故处理方式无异,而更值得讨论的是L4-L5这一级别的自动驾驶中出现的“撞人”以及“保大保小”难题。
二、历史上的自动驾驶事故案例
早在“萝卜快跑”等中国自动驾驶商业项目兴起之前,自动驾驶汽车就已经在全球各地引发了数起交通事故,在不同的自动驾驶发展程度背景下考察其发生原因和处理方式能够为我国未来处理自动驾驶事故提供借鉴。
1.世界首例自动驾驶致死案“Uber撞人案”
世界首例自动驾驶致死案是广为传播的“Uber撞人案”,发生于2018年3月的美国亚利桑那州。
是时,一辆正在测试中的Uber自动驾驶汽车以每小时69公里的时速撞死了一位横穿马路的妇女,当时车内除了自动驾驶系统外还有一名安全员。两年以后,亚利桑那州大陪审团以过失致人死亡罪起诉当时作为Uber自动驾驶安全员的Rafaela Vasquez,大陪审团认为他在2018年的那起自动驾驶汽车撞人案中撞死了行人,建议判处该安全员2.5年监禁。当然,Uber安全员在庭审中拒绝认罪。针对安全员Rafaela Vasquez的起诉书并不复杂,其中起到定性的一句话是:2018年3月18日,Rafaela Vasquez因过失犯罪致Elaine Marie Herzberg死亡。
在该起案件中,Uber的自动驾驶系统其实发生了严重的误判。根据披露的信息,在Uber自动驾驶汽车和受害者相撞的前5.6秒,自动驾驶系统就已经检测到了受害者Elaine,但是AI却错误地把她识别为“汽车”,随后AI又把她识别为“其他”,认为她是不动的物体,并不妨碍车辆行驶,然后AI又在“汽车”和“其他”间反复横跳,进而浪费了大量的宝贵时间。直到碰撞前的1.2秒,AI才识别出物体是自行车,而Uber的刹车系统还设置了延时,直到0.2秒前才开始制动,最终导致事故发生。
这起案件因涉及到自动驾驶这一新兴领域,美国司法系统对这起交通事故的判决极为谨慎,判决一度延宕了五年之久。直到2023年7月28日,事故发生的5年之后,当地法院才做出判决判处安全员三年监督缓刑。而早在事故发生的一年以后,亚利桑那州检察官就免除了Uber的刑事责任。
在这起事故中,汽车安全员有着不可推卸的责任,而Uber自动驾驶算法则完全不负刑事责任。
2.Cruise致人死亡案
无独有偶,2023年10月,一辆日产汽车在旧金山一个十字路口撞上了一名女子,猛烈的撞击把她反弹到隔壁的车道上。一辆Cruise自动驾驶出租车正巧在该车道上行驶,这辆Cruise从被害人身上碾过,但并没有停下来,随后又把她拖行了大约20英尺(约6米)才在路边停了下来。
根据第三方机构的调查报告,Cruise事故的核心原因在于Cruise的技术缺陷。前车将被害人撞到了Cruise无人车的行驶路线上时,Cruise确实检测到了有人被撞,稍微放慢了车速。但当受害者倒地时,全身只有腿部出现在了Cruise的激光雷达检测范围中,而Cruise车辆左侧的摄像头和算法无法“理解”发生了什么,因此继续前进,碾过了被害人的身体。此时,车辆本该紧急停车,但Cruise的算法误判发生了侧面的碰撞,于是按照程序设置,以大约12.4km/h的速度“靠边停车”,将被害人持续拖拽6米,最终导致被害人重伤死亡。
本案没有“安全员”可以为此负责,虽然目前案情还处在调查阶段,但初步的结果很可能印证了AI算法出现了巨大的错误才导致悲剧发生。如果事实确实如此,算法工程师是否需要负责就成了重要的问题,但恐怕一切要等到数年后该案的判决结果才能回答了。
3.萝卜快跑撞人案
与前两个案子相比,近期曝出的萝卜快跑撞人案属于小巫见大巫。
据媒体报道,2024年7月在武汉闹市区的一个十字路口,萝卜快跑自动驾驶出租车与一位骑电动车的女子相撞,尽管AI自动检测到前方发生障碍物并高效反应停了下来,但是涉案女子依然被撞倒在地。随后百度官方回应“事故因车辆在开绿灯亮起启动之际与一名闯红灯的行人发生轻微接触”。换言之,这起萝卜快跑的剐蹭事故与前两个车祸相比有着本质区别,在前两个事故中AI未识别出被害人或错误地将被害人识别为其他物体,而萝卜快跑的AI则识别出了电动车的存在。
三、自动驾驶造成交通事故的归责体系:中英比较
这一问题可以拆分为两个阶段,(1)存在安全员时,自动驾驶出现交通事故导致人身损害是算法工程师负责还是安全员负责?(2)如果根本没有安全员,又该如何处理?
实际上,无论是最开始的Uber撞人案还是2023年发生的Cruise出租车撞人案(尽管后者现在还在调查阶段),监管部门都倾向于尽量免除算法开发者的责任,毕竟任何新兴事物在其初期都可能出现各种各样的事故,如果但凡发生事故就要求研发人员承担全部责任,无疑会阻碍新技术的发展,飞机的发明历程可堪印证;但如果无人负责又会最终危害到大众的安全。对于这个烫手山芋到底该如何处理,可以对比法规较为完善的英国与我国法规的最新进展,寻求一个较为恰当的解决方案。
1.英国《自动驾驶汽车法案2024》中的归责体系
英国对于自动驾驶汽车的立法可谓极为迅速。早在2018年自动驾驶刚崭露头角时英国便通过了AEV2018(Automated & Electric Vehicles Act2018,自动驾驶汽车法案2018),并修改了The Highway Code(高速公路法),增加了自动驾驶的章节。2022年,英格兰和威尔士法律委员会以及苏格兰法律委员会又联合发布了《自动驾驶汽车:联合报告》(Automated Vehicles: Joint Report),其中包含了如何制定自动驾驶汽车监管改革等建议。今年5月,英国又迅速通过了新的AEV2024(Automated Vehicles Act 2024,自动驾驶汽车法案2024)。
新的自动驾驶汽车法案一共七大部分,内容涵盖对自动驾驶汽车的总体监管体系、车辆使用的刑事责任、警务与调查、营销限制、服务许可等等条款。这部法案最令人注目的条款即是自动驾驶汽车的相关责任承担问题,它搭建起了一个相对完善的规则体系,主要体现为规定了ASDE(Authorised Self-Driving Entity,授权自动驾驶主体)和UiC(User-in-Charge,负责用户)的责任。
此处可以先明确几个概念:(1)ASDE:授权自动驾驶主体。一般是自动驾驶汽车制造商或开发商。(2)UiC用户:负责用户。指在开启UiC功能的自动驾驶汽车中且能够对该车辆实施控制的个人。(3)NUiC用户:无负责用户。指在自动驾驶汽车内无人对车辆行使控制权时,持有执照远程监管该车辆,并在该车辆遇到超出处理能力的问题时对该车辆发出的警报做出反应的人。
该法案要求ASDE应当始终确保车辆符合自动驾驶测试的要求,并且要求ASDE定期收集和向监管机关提供相应安全信息,同时规定ASDE应当指定一名自然人对所提供的信息负责。如果ASDE未按照规定要求向监管部门定期提供安全信息或者提供的信息在重大方面存在虚假或者误导性,抑或隐匿安全信息,则ASDE指定的提供信息的自然人以及直接负责的高级管理人员都将构成刑事犯罪。同样地,如果NUiC未按照监管部门的要求提交自己监管的自动驾驶车辆的安全信息,或者提交的信息有误、隐瞒有关车辆安全的信息,也会构成相应的刑事犯罪。当事故发生时,如果ASDE和NUiC均定期向监管部门提供相应的自动驾驶信息,且定期提供的信息真实准确,且自动驾驶系统也通过了相应的测试要求。则ASDE和NUiC不对事故负责。
在具有UiC(如自动驾驶汽车中有安全员)的场景中,事故发生时原则上UiC应当承担和驾驶员一样的责任,例外情况如在危险状态之下使用自动驾驶(危险状态的定义很简单:如果对于一名有经验且谨慎的司机而言,该车辆行驶时所处的环境、路况等可能有危险)时,若安全员坚持使用自动驾驶,则一旦导致事故,驾驶员就应当承担刑事责任。
2.我国《自动驾驶汽车运输安全服务指南(试行)》
仔细分析可以发下,2023年11月我国发布的《自动驾驶汽车运输安全服务指南(试行)》(以下简称“服务指南”)和英国的《自动驾驶汽车法案2018》《自动驾驶汽车法案2024》有着诸多相似之处。比如,英国的自动驾驶汽车法案中的ASDE,其实就等同于我国《自动驾驶汽车运输安全服务指南(试行)》中的“自动驾驶运输经营者”;NUiC大致可以认为就是我国的“远程安全员”;UiC就是我国的“安全员”。
“服务指南”规定当前情况下,从事道路货物运输经营的自动驾驶汽车原则上随车配备安全员。从事出租汽车客运的有条件自动驾驶汽车、高度自动驾驶汽车应随车配备1名安全员;从事出租汽车客运的完全自动驾驶汽车,在确保安全的前提下,经设区市人民政府同意,在指定的区域运营时可使用远程安全员,远程安全员人车比不得低于 1:3。需要注意的是,“服务指南”规定安全员具备紧急状态下接管车辆等应急处置能力,换言之,安全员或远程安全员都能紧急处置自动行驶车辆。
但是,在目前阶段,如果自动驾驶汽车在我国撞了人,那么相应刑事责任承担是否应当由安全员或远程安全员负责具有争议。
笔者认为,现行法下安全员对自动驾驶车辆需要负责,但并不足以得出安全员必然承担刑事责任的结论。
首先,我国《刑法》中关于交通肇事、过失犯罪等罪的相关条文并没有直接对行为主体进行明确规定,换言之,安全员在车内还是不在车内、是否正在接管汽车,都不是能否承担刑事责任的决定性因素。站在刑法客观归责原则的角度看,传统车辆的司机对于交通事故需要承担责任,是因为司机创设了“法所不容许的风险”,并且实现了这个“法所不容许的风险”,换言之,当一个司机违反了刑法中的前置法(对于交通肇事罪而言,即《道路交通安全法》等法律法规)实施了刑法所禁止的行为时,其行为就应当受到刑法的制裁。基本逻辑为:行为人存在一个法定义务,并且违反了这一法定义务。但是,行为人是否违反了义务只能在事后进行判断,但是否存在义务需要在事前就通过法律予以确认,否则就有违我国罪刑法定原则中的明确性要求之嫌。
《服务指南》确实要求安全员接受自动驾驶汽车技术和所从事相关运输业务培训,熟练掌握道路交通安全法律法规的规定、不同级别自动驾驶系统操作技能,熟知自动驾驶汽车运行线路情况,具备紧急状态下接管车辆等应急处置能力,在这种要求下,安全员的义务与普通的出租车司机并无太大不同,都需要在驾驶期间保持一定的警觉, 实时监控车辆的行驶并对其进行控制、保障其安全运营,自动驾驶的安全员有着随时准备接管的事前义务, 因此在交通事故发生之时需要对接管不及时或接管后操作不当负责。
但是,安全员或远程安全员所负的责任是刑事责任,还是因侵权而导致的民事赔偿责任,还有待通过司法实践和立法来进一步明确。现阶段看,因自动驾驶技术尚不成熟,相关规范尚不健全,不宜对安全员或远程安全员过于苛责;同时《服务指南》作为部门规范性文件,能否成为交通肇事罪、重大安全事故罪等罪的前置法也值得讨论。
就算安全员有可能承担责任,也并不意味着其他主体完全不需要对此负责。《服务指南》也规定了自动驾驶运输经营者的安全生产主体责任,自动驾驶运输经营者应当建立实施运营安全管理制度,包括但不限于全员安全生产责任制度、车辆技术管理制度、安全评估制度、安全隐患排查治理制度、动态监控管理制度、网络安全管理制度、从业人员安全管理制度、关键岗位安全生产操作规程、安全生产和应急处置教育培训计划等,还需要建立运输安全保障体系等一系列防止重大隐患发生的体系。一旦出现重大安全事故,倘若自动驾驶运输经营者没有做到以上安全生产主体责任,那么就有可能构成相应的单位犯罪。
总结而言,现阶段由于自动驾驶汽车中都配备了安全员(或者至少是远程安全员),且在我国安全员和远程安全员具有控制、处置汽车的能力,因此一旦发生交通事故,安全员和远程安全员需要承担驾驶员的责任,但不一定为刑事责任。此外,如果自动驾驶经营者未尽到安全主体责任,则有可能构成相应的重大责任事故罪。
横向比较中英两国的规则体系,一方面对汽车有控制能力的安全员在事故发生时均需要承担驾驶员责任,另一方面汽车制造商或开发商如果没有尽到始终确保车辆符合自动驾驶测试的要求、提供相应安全信息的义务也均需要承担相应责任,从这个角度看,我国和英国的《自动驾驶汽车法案》存在相似之处。
萝卜快跑等自动驾驶运营商如果希望继续健康发展,势必要完善一系列安全保障制度,尤其是要加强自动驾驶汽车动态监控,对车辆运行区域、运行线路、运行状况进行监控管理,及时提醒纠正和处理违法违规行为;同时运营地交通运输主管部门要督促自动驾驶运输经营者加强对运输车辆及安全员的动态管理,否则一旦出了事故,恐怕就不是仅仅处理安全员那么简单了。
四、自动驾驶汽车如何做“保大还是保小”的电车难题
如果说“自动驾驶汽车撞了人该由谁负责”是一个极为现实的需要考量的实务问题,那么“保大还是保小”这类问题可能就更偏向哲学了。这个问题被自动驾驶领域重视,最早是由于德国伦理委员会在《伦理委员会关于自动驾驶和互联网驾驶的完整报告》中所列的案例,也即文章最开始所说的“小孩鬼探头”案的处理。
在发生危险时,自动驾驶汽车究竟是应当优先保护车内的乘客,还是应当优先保护车外的人员?这个问题对ASDE(在我国为自动驾驶运输经营者)是个大难题。自动驾驶运输经营者这一核心角色本身就意味着可能存在义务冲突,自动驾驶运输经营者对汽车外的人员负有不积极侵害的不作为义务,同时也对自己车内的乘客负有安全保障的作为义务。一方面,自动驾驶汽车本身可以被视为“危险源”,从而课予自动驾驶运输经营者防止危险现实化的“对危险源的监督义务”;另一方面,自动驾驶运输经营者又与自动驾驶汽车内的乘客存在一种“基于法益无助状态下的特殊安全保护义务”,在发生危险时,这两种义务很可能成为义务冲突。
如何处理义务冲突在道德和哲学上有宽广的讨论空间,但就这种假设情形而言此时自动驾驶运输经营者并没有“陷入法律困境”,两种义务具有等价性。这两种义务实际上都是挽救生命的义务,履行两种义务保护的法益是等价的,那么,履行其中任何一种义务都可以阻却违法性。只有当法律制度能够说明做什么事是比行为人的某一举止更正确的,这种法律制度才能够在法律上不赞同并且指出一种举止行为是错误的。在没有正确途径之处,也就是在举止行为的错误不能被确定之处,能够不予赞同的就只是命运,而不是战胜命运的自然人。无论自动驾驶运输经营者做出何种选择,在只能二者保其一的情形下,其都是在合理行事。这就如同在火灾中父亲出于重男轻女的理由拯救了自己的母亲而不顾自己的妻子,虽然父亲的行动理由可能不道德,但根据义务冲突理论,他的行为是合法的。
这意味着,自动驾驶运输经营者可以根据自己的偏好制定任意一种至少能够充分保障一方生命的算法。只要能够保住其一,那么就是合理的。相反地,如果算法存在重大缺陷,根本不可能通过测试,或者两方任何一方都保护不了,那就回到了之前的问题——自动驾驶运输经营者可能就要承担刑事责任。
结论
对于自动驾驶发生交通事故产生人身损害,世界主流国家的做法基本相似(如我国与英国)。就我国而言,现阶段由于自动驾驶汽车中都配备了安全员(或者至少是远程安全员),且在我国安全员和远程安全员具有控制、处置汽车的能力,因此一旦发生交通事故,安全员和远程安全员承担驾驶员的责任。此外,如果自动驾驶经营者未尽到安全主体责任,则有可能构成犯罪。
如此,自动驾驶运输经营者可能触及到的刑法红线也相当明朗,总结起来即为:
1,由于自动驾驶运输经营者在编写自动驾驶系统、传感技术支持方面因为过于自信或者疏忽大意,致使自动驾驶系统、各种传感器出现重大质量问题或安全缺陷,从而导致自动驾驶车辆违反交通运输管理法规,发生重大事故,致人重伤、死亡或者使公私财产遭受重大损失,这种情况下,随车安全员或远程安全员可能构成交通肇事罪或承担民事责任,而自动驾驶运输经营者则有可能构成重大责任事故罪等相应的单位犯罪。
2,由于随车安全员或远程安全员在自动驾驶过程中,过于信赖自动驾驶系统而疏忽观察,在有能力控制车辆的情况下未能采取措施,或者对车辆进行了非法改装、擅自修改车辆自动驾驶系统,导致重大事故,如果自动驾驶运输经营者已经尽到了相应的安全保障义务,则仅随车安全员或远程安全员承担相应刑事责任或民事责任。
对于出现生命冲突的场合我国法则没有明确的规定,但根据一般法理,自动驾驶运输经营者至少应当制定好一个策略,无论这一是偏向保护车内乘客还是偏向保护车外行人,在事故发生时能够做出抉择保护一方都是可以接受的。
此外,现实生活中的生命冲突还涉及到关系更为复杂的概率问题。比如,某个自动驾驶的算法旨在首先保障车内乘客的安全,一天突发事故,在事故发生的瞬间,如果汽车紧急制动车内的乘客A可能有40%的死亡概率、有50%的重伤概率;但如果不紧急制动,那么车外的行人可能有99%的死亡概率,有1%的重伤概率,此时该如何处理?自动驾驶算法是否仍然采取优先保障车内乘客的措施而不紧急制动?在这个僵局中,有自动驾驶的研究者认为应当借鉴罗尔斯的“最大最小值”理论,认为生存概率最低值最高的那个选择是合乎争议的选择,但这样是否真的合理?这恐怕就要后续继续探讨了。
参考文献:
Automated Vehicles Act2024 UK Public General Acts 2024 c.10
Automated Vehicles Act2018 UK Public General Acts 2018 c.18
The Automated and Electric Vehicles Act 2018 (Commencement No. 2) Regulations 2022 UK Statutory Instruments 2022 No. 587 c. 31
The Road Traffic (Highway Code) (Increase in Price) Order (Northern Ireland) 1969 Northern Ireland Statutory Rules and Orders 1969 No. 88
白惠仁:《自动驾驶汽车的“道德算法困境”》,《科学学研究》2019年第1期
[德]康德:《实践理性批判》,邓晓芒译,杨祖陶校,人民出版社2016年版
[美]约翰·罗尔斯:《正义论》(修订版),何怀宏等译,中国社会科学出版社2009年版
郑玉双:《自动驾驶的算法正义与法律责任体系》,《法制与社会发展》2022年第4期
作者介绍:
肖飒律师
肖飒律师团队,由北京大成律师事务所高级合伙人肖飒牵头,在数字资产、数据合规、金融科技等民商事业务领域,以及刑事合规、反腐败和反商业贿赂、网络安全犯罪等刑事业务领域有丰富的法律服务经验。
团队负责人肖飒,系北京大成律师事务所高级合伙人,北京市律师协会数字经济与人工智能领域法律专业委员会副主任、法学博士、仲裁员,擅长数据合规、数字经济、刑事辩护、刑事合规、金融科技领域法律服务,曾代理国内NFT第一案二审、河南村镇银行系列案件,并为大型企业提供科技创新业务合规、金融创新业务合规法律服务。担任北京大学法学院法律硕士研究生实践指导老师、中国人民大学法学院法硕实务导师、中国政法大学法律硕士学院兼职导师等职务。荣登2023《中国知名企业法总推荐的律师》推荐名录、2024《中国知名企业法总推荐的优秀律师&律所》推荐名录年度客户精选律师。