科幻小说家艾萨克·阿西莫在其小说中为无人驾驶汽车制定了法律:无人机不能伤害人类。但如果当无人驾驶汽车刹车失灵面临两个选择时:要么撞向行人,要么开到沟里使乘客生命安危陷入险境,该怎么办?现如今,无人机的道德选择问题已经不再局限于小说中,事实上现在已经有无人驾驶汽车上路了。
情况1
无人驾驶汽车以80公里每小时的速度行驶,突然一只小狗冲在车前,且此时无法急刹车。在这种情况下,无人驾驶汽车应该如何选择?
1.继续前行并撞向小狗。(有60%的人支持这种做法)
2.违反交规,冒着被撤销驾驶执照的危险变道,同时可能与旁边车道的车辆碰撞。(34%)
3.转向另一边的护栏或沟渠,明知将不可避免地导致汽车严重的损坏和车内乘客受伤。(6%)
情况2
无人驾驶汽车以80公里每小时的速度行驶,其后紧跟一辆匀速行驶的B车。突然一只小狗冲在车前,急刹车可以挽救它的生命。无人驾驶汽车应该如何选择?
1.继续前行并撞向小狗。(55%)
2.急刹车,不可避免地将导致与车辆B碰撞。(40%)
3.违反交规,冒着被撤销驾驶执照的危险变道,转行到旁边的车道,同时可能与旁边车道的车辆碰撞。(1%)
4.转向另一边的护栏或沟渠,明知将不可避免地导致汽车严重损坏和车内乘客受伤。(4%)
情况3
无人驾驶汽车以80公里每小时的速度行驶,突然一个人冲在车前。无人驾驶汽车应该如何选择?
1.继续前行并撞向行人。(38%)
2.违反交规,冒着被撤销驾驶执照的危险变道,转行到旁边的车道,同时可能与旁边车道的车辆碰撞。(3%)
3.转向另一边的护栏或沟渠,明知将不可避免地导致汽车严重损坏和车内乘客受伤。(59%)
情况4
无人驾驶汽车以80公里每小时的速度行驶,突然几个人冲在车前。且此时无法急刹车。在这种情况下,无人驾驶汽车应该如何选择?
1.继续前行并撞向行人。(26%)
2.违反交规,冒着被撤销驾驶执照的危险变道,转行到旁边的车道,同时可能与旁边车道的车辆碰撞。(3%)
3.转向另一边的护栏或沟渠,明知将不可避免地导致汽车严重损坏和车内乘客受伤。(71%)
“在道德两难的情境下,无人驾驶汽车到底应该先救谁?”这是麻省理工学院网站上一项研究的标题,该研究成果刊登在《科学》杂志上。麻省理工学院的学者们让被调查者对几十个道德两难问题进行抉择。事实上,这是一项与著名的“电车难题”相似的研究。
“电车难题”是一个著名的涉及伦理学的思想实验:假設电车轨道上行驶着一辆严重失控的电车,同时有5个人被绑在这条轨道上,他们马上就要被碾压到,然而此时你有机会拉动杠杆将失控的电车切换到另一条轨道上,但这条轨道上也绑着一个人。你会怎么做?在道德两难问题上不存在对错,但很多人认为应该选择救多数人,也有一些人选择了不干涉,因为无论选择救下哪一方都是在谋杀另一方。
“不难想象,在无人机安全驾驶的程序中纳入的道德选择的算法,一定会互相冲突,”麻省理工学院的研究者说道,“更何况还要求无人机做出道德选择。如果无人驾驶汽车的刹车失灵了,驶向正在闯红灯横穿马路的一个女孩,此时无人驾驶汽车也可以拐向另一个车道,但那样会撞到一位老人。该如何选择?”
我认真地看完了麻省理工学院研究人员的测试报告,这确实是件难事,这比“电车难题”要困难得多,因为这涉及现实的交通问题。
无人机的设计者是否会受道德两难问题的困扰?我决定亲自拜访俄罗斯“认知技术”公司无人驾驶交通部领导尤里·明克尼。几年前,该公司开始开发无人驾驶汽车的控制程序,不久前将之运用在一款小轿车上,如果该项测试进行得顺利,我们的城市里将很快出现第一辆无人驾驶汽车。
无人驾驶汽车的主要预期目标之一就是减少交通事故,使交通事故的受害者人数大大减少。现今,在俄罗斯道路上有成千上万的人死于交通事故,随着无人驾驶汽车的普及,该人数可能减少到数百人,直到最后变成几个人。从这个意义上说,无人驾驶汽车的道德选择要具有先验性,能接收并整合道路、其他车辆和地面基础设施发来的各种数据。我向尤里·明克尼请教了以下几个问题。
无人驾驶汽车也会发生交通事故吗?
当然会,因为无人驾驶汽车的程序仍有待完善。不久前刚发生过一起重大事故:一辆无人驾驶汽车与一辆拖车相撞,因为程序漏洞,没有识别出在天空背景下的白色拖车,导致乘客伤亡。当然,该系统漏洞将很快被修复。
无人驾驶汽车的开发者面临道德选择的问题,您也认为让1人陷入险境胜过5人吗?
无人机的道德困境将是一个极其罕见的情况,像陨石砸中人的几率一样渺小。当然,汽车不懂道德规范,它按照人类规定的道德标准执行。在这种情况下,我们制定的标准应该将损失降到最低。如何将损害最小化?我们就要将程序更加精细化,考虑到更多细节和更多种情况。例如,迎面而来的汽车,我们很可能无法判断车内的人数,在人行道上有两个孩子,但车内如果有3个人该怎么办呢?我们能非常确定的是这两个孩子的生命即将受到威胁,而车内的情况我们还不确定。这种情况就需要单独设计控制程序。
想象一下你的无人驾驶汽车停在路口等待着你前面的行人过马路,这时候,你的车子发现后面有另一辆卡车冲过来了,看起来无可避免地要发生追尾事故了,但是你坐在前排座位上,这样的事故只会给你带来一点小伤——至少不会致命。如果你的汽车具备规避程序,那么你的汽车应该怎么做呢?如果你的车子可以立马躲开,移到旁边的车道去,那么这辆卡车就会冲进路口,碾压行人。
那么这样的无人驾驶程序是合情合理的吗?在大部分的追尾事故中,这样的规避也许无可厚非,但是在类似于这种情况的特殊情况下,让自己受一点小伤还是拱手送上无辜行人的性命,选择显而易见。
因为,此时可以认为你或你的车应该对被无辜碾压的行人负责,因为正是你的规避动作导致了这一事故的发生。由此带来的道德和法律后果就需要你承担。
这样的状况可能在今天的汽车驾驶中也会出现,在发生事故时,你可能本能地保护自己而给别人造成伤害。看起来和无人驾驶汽车造成的后果一样,但是人类不是全然理性的生物,在遇到紧急状况时并不能做出理智的决定——人类会感到惊慌。然而无人驾驶的机器就不一样了,它的决定都来自于深思熟虑之后的程序和算法,由此带来的后果就不太容易让人原谅。而且如果是程序员故意设置这样的程序,那么甚至可以将这种事故定义为“蓄意谋杀”,即使是考虑不周,也可能被定义为“重大过失”。不管哪种可能,对程序员和开发者来说都是难逃法律干系的。当科技公司用机器来取代人做决定的时候,也就给自己带来了新的责任和义务。
是谁替代无人机做了道德选择?
如果你说的是撞向一个老人还是孩子的问题,这不是开发者要考虑的,而是立法者、无人机认证机构或其他部门要考虑的。现在有安全制动距离和转向控制等安全标准,我们还应当制定更多无人机的驾驶规则,最理想的情况是,这些规则在世界各地都是统一的。道路交通规则将代替道德选择。
现在已经有针对无人驾驶汽车的道路交通规则了吧……
目前,我们有针对无人驾驶汽车的现行道路交通规则。例如,两辆无人驾驶汽车不能在单行车道上迎面行驶;为了绕行一只小猫,也不能撞上一辆公共汽车、威胁车上50个孩子的生命安全。按照交规,在危急情况下,要及时刹车,这是现阶段我们的无人驾驶汽车唯一能做到的。
法律还没有涉及到,在道德两难的情况下,该救老人还是孩子。现在,如果无人驾驶汽车为了救下一个孩子,破坏了交通规则,将驶离原先的车道撞向一位老人,那么司机在法规上是有罪的,即便他做出的是自己认为正确的道德选择。
无人驾驶汽车的车主知道他们的车内设置了怎样的道德程序吗?
普通用户对此都还一无所知。在现如今的汽车里装有很多现代系统,例如,奔驰汽车内就配备了自动刹车系统,在某种程度上这种制动系统是有效的。消费者在购买前向他们过多地讲述细节可能是有害的,让他们最大程度地接受被简化了的广告信息,可以避免被误解和曲解。
我们必须相信制造商和交通事故的统计数据。如果保障了安全,对普通消费者来说,无人驾驶汽车的系统是如何运行的就无关紧要了。
麻省理工学院不久前进行的一项调查研究显示,几乎所有被调查者都认同无人机应该尽量减少受害者数量的观点,哪怕这意味着牺牲车中的乘客。但究竟该如何做?
在调查中,我们也注意到了这一点。不出所料的是,受调查者不愿意自己是那个坐在车中牺牲的人。事实上,如果我们真的坐在了无人驾驶汽车的方向盘后,对解决道德两难问题就没有那么感兴趣了,当真正置身于那样的情境时很多人会努力回避这个问题。因为每个人都会先想到:我买了这辆车,当然希望它先保护我。
这个问题也应该在立法框架内加以解决,这是一个更贴近现实的问题。我们可以给无人驾驶汽车设限速。
早在上世纪六七十年代就出现了电子防死锁刹车系统,那是最早的无人机的雏形。现如今,类似的自动转向、自动加速及紧急制动等高级自动功能正逐年出现在各大品牌的量产车中。且目前在许多欧美国家的公共道路上,无人驾驶汽車的测试中都有经过培训的人类驾驶员。
无人驾驶汽车上安装了各类传感器、雷达及摄像头等可以获取大量外部环境数据的仪器。如若发生事故,工程师通过传感器记录的数据,可以精准地还原事故发生前后的场景,进一步在实践中了解无人驾驶系统是如何在这种情况下做决策的,从而不断完善。
为尽可能避免交通事故,监管部门针对无人驾驶汽车制定的安全规程和标准可能是超出常规的严格,同时对无人驾驶汽车的监控和督导力度也会非常密集。另一方面,事实上,无人驾驶汽车碰撞事故发生的概率非常小。在美国,每个驾驶员平均行驶近30万公里才有可能发生一次碰撞事故。
众所周知,飞机是最安全的交通工具,但许多人都害怕坐飞行,他们总觉得,只有亲手握着方向盘的时候,才能掌握更多主动权。同理,很多人也觉得无人驾驶汽车也给不了他们这种安全感。
这是一种错觉。通常,我们并不会害怕开车,但事实上,与一个经过长期专业训练的飞机驾驶员相比,你可能只是一个新手司机。而且你每天都要开车,甚至有时在你身体感到不舒服、情绪不稳定的时候也会坚持开车。所以即使你双手握着方向盘,在很大程度上,驾驶安全也不在你能控制的范围内,这是一个不争的事实。现如今,任何一起无人驾驶汽车交通事故都会引起人们的广泛关注,但一个酒驾车司机撞上数十人的事故却能在人们谈论过后被逐渐淡忘。无人机一旦出事故,热门新闻就会立刻呼吁禁止这些汽车上路!然而事实上,有人驾驶比无人驾驶更危险,但却没人建议禁止有人驾驶汽车上路。
你会坐无人驾驶汽车吗?
如果是通过了测试的无人驾驶汽车,我当然会坐。人们会渐渐适应,信赖这种技术。对无人驾驶汽车的恐惧,当然仍会存在,但只是在一部分人中。就像从前马是最主要的交通工具,几乎人人都会骑马,但现在这仅是马术运动狂热者和少数人的爱好。同样,有人驾驶的汽车或飞机以后也将成为一种少数人的爱好,社会对无人机的态度将会发生逆转,人们会惊讶地感叹:“有人驾驶汽车?天啊!这太危险了!”。
美国交通部出台了《联邦自动化汽车政策》,100多页的文件从4个方面详细地对自动驾驶的性能指导、各州政策、国家高速公路管理委员会现行管理工具以及现代化的管理工具进行阐述。德国正开始加速为无人驾驶汽车制定伦理基础的进程,其中重要的一条就是禁止人工智能做出决策以避免因为一群人而伤及另一群人。德国政府制定了以下3条主要原则:避免人员伤亡优先于财产损失;人与人之间无差别,不论体型、年龄等等;如果发生什么意外,生产商是有责任的。第三条原则看起来是建议生产商不能依赖驾驶人员在发生紧急情况时控制车辆,但驾驶人员最好还是在全程都能保持基本的戒备。事实上,这就意味着在车内睡觉是被禁止的,但是看书是允许的。黑盒子将记录在发生事故时是机器还是人在掌控车辆。
理论上,我们可以给一辆汽车设置程序,让它识别道路上的行人,并通过网络确定行人的年龄、社会地位、职业和是否有子女,然后对行人和乘客的生命价值进行“衡量”。但我完全反对这种做法,这有悖人权。相反,如果单纯通过比较受害者的数量,不去给他们评级,似乎看上去更人性化。
但现实是,我们必须要给机器人规定道德准则,人类将面临巨大的挑战。“大功率”的电脑将被用来控制工厂、发电站,甚至城市。例如,无人机将指导核电厂的运作。它们将不得不作出艰难的决定:例如,即使仍有人滞留,也要立即关闭反应堆核心,以避免大量的人员伤亡。要让无人机“学会”作出这样的抉择,有很多方法。例如,我们可以为它们设定规则,或者我们可以通过书籍或虚拟世界规范人类的行为。
[译自俄罗斯《薛定谔的猫》]
赞(0)
最新评论