文章正文

诗词 散文 小说 杂文 校园 文苑 历史 人物 人生 生活 幽默 美文 资源中心小说阅读归一云思

人工智能时代的法律责任探究

时间:2023/11/9 作者: 山东青年 热度: 15182
陈昕彤

  摘要:

  人工智能时代正逐步走来,在促进人类社会进步的同时,相应的也对当前的法律规则与法律秩序带来了史无前例的挑战。“这是最好的时代,也是最坏的时代”。智能时代无疑是更加精细化、智能化的“最好时代”,但不可避免的也成为了法律问题、制度隐患愈发严重的“最坏时代”。面对智能机器人造成的可预测性的损害法律问题,法律规则的局限与不足也将逐渐显现出来,“谁来承担法律责任”也就成为了亟待解决的问题。

  关键词:人工智能;智能机器人;法律责任

  引言

  苹果首席执行官蒂姆·库克在麻省理工学院2017年届毕业典礼演讲中指出,“我并不担心人工智能能够像人一样思考,我更关心的是人们像计算机一样思考,没有价值观、没有同情心、没有对结果的敬畏之心”。[1]无论人类是否已经做好准备,不可否认的是人工智能时代正加速到来。初级的人工智能时代,人类仍旧是核心,是规则的制定者,是人工智能服务的对象。而到了高级人工智能时代,人工智能可以改变甚至脱离人类为其设计好的算法而创制新的算法,此时人类将处于何种主体地位,一切都还不得而知。因此,面对将“算法”作为“大脑”的人工智能,我们需要认真思考、认真对待,在人机混合的时代通过法律责任规制来对机会与风险进行权衡,塑造良性发展的美好未来。2017年7月,国务院发布了《新一代人工智能发展规划》,强调制定能够保障人工智能健康发展的法律法规,以积极的态度应对人工智能可能带来的风险与挑战,并且围绕人工智能的发展进行相应的制度安排。本文将以智能机器人为切入点,在对智能机器人进行了解的前提下,针对不同情况下设计者、生产者、使用者和智能机器人之间应如何分配责任进行探究与论证。

  一、人工智能时代下的智能机器人

  “机器人”一词最早出现于20世纪20年代,卡雷尔·恰佩克在他的戏剧《罗素姆万能机器人》中第一次使用了该词。[2]几十年后的今天,人工智能技术飞速发展,智能機器人开始走进人们的现实生活。人工智能作为一门新兴的学科,与基因工程、纳米科学并称为21世纪的三大尖端技术,同时迎来一场技术革命。[3]

  智能机器人不同于以往的机器,智能机器人被科学家赋予了人工智能(算法),在人类的规划设计下接替人类的一些工作。[4]在个人服务应用上,已经出现了帮助学者安排会议、检查交通可用性的助理机器人;在家庭服务应用上,已经出现了按照程序为儿童和长者提供照顾的保姆机器人;在公共服务应用上,已经出现了以达芬奇外科系统为例的医生机器人。除此之外还有很多新型智能机器人,各国都在加大对人工智能的研发与竞争布局。在可见的未来,各类智能机器人,如服务机器人、医疗机器人、投顾机器人、陪伴机器人、情侣机器人将会大量地涌现,人机共处随之会成为生产生活关系的常态。[4]毫无疑问,智能机器人是人类制造的,机器人之所以智能是因为程序员们通过“算法”将人类信息加工处理后输入给机器人,使其实现“数据——信息——知识——智慧——顿悟”的信息处理的智能晋级。[5]那么,当智能机器人造成损害时,谁应当为此负责?倘若终有一天智能机器人超越了人类,谁又应当为机器人的行为负责?此时的机器人是否仍是单纯的物?其是否能够成为承担法律责任的主体?此时,必然会引发法律责任等方面的重大法律变革和秩序重建。

  二、人工智能时代给法律带来的挑战

  人工智能的表现形式正朝着多元化的方向发展,譬如谷歌、Siri、电子游戏的人工智能,由于十分常见,以至于人们并不把它们看作是人工智能,不会担心其法律责任问题。[6]然而,科学技术总是人类文明进步中最活跃的、最革命的角色。[7]谷歌的无人驾驶汽车、自主的外科机器人、机器人保姆等智能机器人正蓬勃发展。我们不妨设想一下,如果外科机器人手术失败,自身的麻烦事儿已经够多了的医生,可能坦然接受这些指控和诉讼吗?这种担忧合情合理,因此是否赋予智能机器人“法律主体资格”则显得尤为重要,对于进一步研究人工智能时代下的法律责任也起着举足轻重的作用。

  (一)智能机器人的法律主体资格问题

  人类通过“算法”将数据编程到机器人的体内,谁研制的机器人,就由谁负责似乎是显而易见的。然而机器人是有“大脑”的,它的“大脑”即为“程序”,机器人的零部件可以追踪到具体的产商,然而机器人的算法程序很可能是多方研发的。一方面,所涉及的个人、组织众多;另一方面,机器人自主地学习与更新也不无可能。2016年3月23日,微软公司上线了人工智能的聊天机器人Tay。一开始,智能机器人Tay和网民们交流的十分顺利,可是不一会儿,问题就出现了,Tay像一个被教坏了的“少女”,不仅拥有了反犹太人的人种歧视,还有对黑人白人、男人女人持不同态度的歧视性言论。[8]仅仅上线一天,Tay就被微软公司下线了,经它之手发布的侮辱性、歧视性言论给用户造成的不良体验应当归咎于谁呢?是微软公司吗?是程序输入端的编程人员吗?可是由于Tay不成熟的学习能力与认知能力造成的言语不当、种族歧视应当全由制定者负责吗?它自身是否可以成为虽然不具备生命,但是可以被赋予法律主体资格的“人”呢?这些值得商榷。美国国家公路安全交通管理局在2016年2月初认定谷歌的无人驾驶汽车所采用的人工智能系统可以被称为“司机”,换句话说,被赋予了虚拟的“法律主体资格”。[9]我国目前在智能机器人是否可以成为独立的“人”这一点上还没有明确的立法,仍然视人工智能为“物”而非“人”,认为智能机器人虽然有类似于人的智力,但是没有人的灵魂与心性,不能简单等同于人并视之具有人的法律主体资格。但在不远的未来,将会有更加智能与自主化的机器人进入市场,此时对智能机器人的可责性探究与制度安排意味着新的法律体系将会支撑法治秩序。

  (二)智能机器人致人损害的法律责任问题

  随着医生、外科医生和其他医疗从业者成为责任诉讼中最常见的被告,人工智能将会如何影响与手术相关的法律责任。机器人手术系统中,达芬奇外科手术系统可以称得上是最有名的系统之一。“达芬奇”是一种被称为“遥控机器人”的机器人手术系统,它可以通过视频和计算机增强技术从控制台远程控制多个手柄,从而使极其困难甚至是不可能的手术变成现实。在2012年俄亥俄州的加利亚诺诉考伍克案(Gagliano v.Kaouk)中,患者在进行“机器人切除”其前列腺手术后受到感染和其他伤害。陪审团最终作出了有利于被告医生的裁决,审判法庭认为“达芬奇”系统十分复杂,被告需要专家证人帮助陪审团了解机器人是否有缺陷,这个人不仅要在该领域具备专业医学知识,还要充分掌握达芬奇机器人系统。至于原告,法庭同样允许可以适用专家证人来证明被告医生未获得机器人前列腺切除术的认证。不难看出,当医院开始使用人工智能外科医生时,专家证人将显得尤为重要。为了避免适格专家证人的缺失,避免人工智能外科医生在手术中没有任何问题却仍要承担责任的情形,医院应当制定适当的政策,来平衡人工智能的使用、医生的要求、病人的期望三者关系。如果有人提出相关的医疗事故纠纷,法官和陪审团可以依靠这些政策来帮助确定是否存在医疗事故以及存在的话应当归咎于哪一方当事人。[10]

  20世纪60年代初,研究人员就开始使用电脑来提醒老年人日常活动,现在看来这是一种程度很低的看护。最近,南加州大学计算机科学教授马加·马塔里埃声称她的机器人能够与自闭症儿童互动,实现对自闭症儿童的有效看护。[11]保姆机器人正蓬勃发展,试想一下,倘若家长把孩子交给机器人看护,而给孩子造成了健康损害,谁应当承担损害赔偿责任呢?其一,若人工智能设计不当,开发商应负责;其二,若设计得当,可是在生产环节存在缺陷,制造商应负责;其三,若设计和制造均合理,是运输途中损坏了机器人,承运人应负责;其四,若设计、制造、运输、监护人均无错处,即为保姆机器人本身存在问题,此时的人工智能侵权如何处理,各国亟需相关立法予以确认。

  (三)智能机器人的产品责任理论探究

  美国,对于缺陷产品责任有着相应的法律规定。其中,产品缺陷基本分为三类:制造缺陷、设计缺陷以及警示不充分缺陷。缺陷产品的生产者或销售者应当承担缺陷产品致损的损害赔偿责任。将这种“严格责任”应用于人工智能领域,不失为一种适当的选择。然而,当智能机器人不存在缺陷问题却导致了损害发生时,机器人其自身应当承担法律责任,即人工智能自己犯了错。此时,如何让人工智能支付赔偿费用呢?美国律师约翰·弗兰克·韦弗认为可以设法提供一种储备基金来支付人工智能欠下的赔偿费用。例如,为人工智能产品购买一定额度的保险或是为购买人工智能产品的消费者增设一个责任附加费,以应对可能存在的赔偿。[12]

  我国,《侵权责任法》、《产品质量法》、《消费者权益保护法》等法律对产品责任作了相关规定。[7]根据我国的立法,在法律赋予给智能机器人法律地位之前,“物”仍旧是我国法律对其最精准的定位。因此,将智能机器人造成的损害进而引发的法律责任归类于产品责任范畴是恰当合理的,产品责任的相关立法也自然而然的对其有施用的余地。通说认为,产品责任是无过错的严格责任,即无论生产者是否存在过错,只要产品有缺陷,生产者就要负侵权责任。然而,当智能机器人造成的损害不能合理追溯到产品缺陷时,为了保证被侵权人得到赔偿,不妨考虑对智能机器人适用“替代责任”规制原则。例如,快递公司利用无人送货车送快递,可以类比雇主与雇员的关系,部署智能机器人的人应当承担可能发生的损害结果的替代责任。这不失为未来制度安排的一种可能性。

  三、人工智能时代规范法律责任的应对之策

  首先,“算法”透明。“算法”决定了人工智能的好坏,对于技术盲来说,审查算法是一件十分困难的事情。要想判断“算法”是否符合既有的法律规则,就需要让“算法”尽可能的透明化,然而企业或许会主张侵犯商业秘密,在这样的情况下对不透明的“算法”进行审查,很可能会得到不公正的审判,导致不正确的责任分配。

  其次,法律监管。目前我国的重心仍是考虑如何才能更好地研发技术、创新人工智能。因此,在法律的调整和立法方面,还缺乏整体的认识与积极的部署。归责原则和责任确定等极为重要的制度改革应该尽快提上日程,以顺利应对人工智能所带来的转型冲击。

  最后,法学教育。基于人工智能带来的超凡影响,法学理论研究将面临多学科的挑战与融合,法学教育也将迈向多元复合、叠加融合的人才培养模式。[13]增强不同领域、不同流派的交流互动,培养新一代优质的法律人才,为未来学习新型法律规范、掌握责任归责机制奠定良好的思想储备。《规划》的出台已经彰显了中国政府的高瞻远瞩与体制优势,中国有信心、有能力制定出具有中国特色的新型法律制度体系来应对人工智能新时代。

  [注释]

  [1]《苹果CEO库克在麻省理工学院2017毕业典礼上的演讲》,http://www.sohu.com/a/161180892_645324,最后浏览日期:2019年1月17日。

  [2][意]乌戈·帕加罗:《谁为机器人的行为负责?》,张卉林、王黎黎译,上海人民出版社2018年版,第2页。

  [3]王利明:《人工智能对民法的挑战》,载《中国城市报》2017年9月11日第22版。

  [4]马长山:《智能互联网时代的法律变革》,载《法学研究》2018年第4期。

  [5]陈钟:《从人工智能本质看未来的发展》,载《探索与争鸣》2017年第10期。

  [6][美]约翰·弗兰克·韦弗:《机器人是人吗?》,刘海安、徐铁英、向秦译,上海人民出版社2018年版,第21页。

  [7]吴汉东:《人工智能时代的制度安排与法律规制》,载《法律科学》2017年第5期。

  [8]曹建峰:《人工智能:机器歧视及应对之策》,载《信息安全与通信保密》2016年第12期。

  [9]张艳:《人工智能给法律带来四大挑战》,载《社会科学报》2016年8月4日第4版。

  [10][美]约翰·弗兰克·韦弗:《机器人是人吗?》,刘海安、徐铁英、向秦译,上海人民出版社2018年版,第36-45页。

  [11][美]约翰·弗兰克·韦弗:《机器人是人吗?》,刘海安、徐铁英、向秦译,上海人民出版社2018年版,第105-107页。

  [12][美]约翰·弗兰克·韦弗:《机器人是人吗?》,刘海安、徐铁英、向秦译,上海人民出版社2018年版,第34页。

  [13]马长山:《面向智慧社会的法学转型》,载《中国大学教学》2018年第9期。

  (作者單位:华东政法大学 法律学院,上海 200050)
赞(0)


猜你喜欢

推荐阅读

参与评论

0 条评论
×

欢迎登录归一原创文学网站

最新评论