澳大利亚警方曾报道过一起离奇的机器人自杀事件,这很可能是世界上第一起记录在案的机器人自杀事件。事件主角是iRobot公司生产的一台智能扫地机器人,据说这台扫地机器人在主人出门后,因感觉不间断的清洁工作实在太劳累,便选择了跑到厨房的电炉上自焚。消防队员赶到现场,对整栋大楼进行疏散,机器人自杀的那层楼更是浓烟滚滚。
负责处理该事故的消防员赫尔穆特·纳塞尔说,据录像资料显示,这家的男主人当天让智能扫地机器人清理案板上的残留食物,机器人完成清理工作后,他就关闭了机器人的电源开关,并将机器人放到了厨房一侧的厨柜上。然后他就和妻儿一起出门了,把机器人独自留在家里。
该事件发生后,有人猜测,很可能是因为男主人在指使机器人干活时态度不太好,或是这家房子的清理工作过于繁重。在主人全家走后,机器人就自动启动,靠近电炉,并将放在电炉上的锅挪开,然后再自己蹲坐在电炉上。
位于电炉上的机器人很快就开始融化,它没发出一点痛苦的喊叫声,融化了的“尸体”黏在电炉上,从而引发了火灾。消防员赶到时,已经只剩下一堆灰烬。
这家男主人坚称,他在出门前肯定把这台机器人关闭了,所以机器人的自动启动和神秘自焚事件就成了一宗悬案。他说:“生产这种机器人的企业出售的是危险产品。我们在‘追悼这台机器人的时候,也应该奉劝其他同类清洁机器人,没有什么大不了的,想开点。”
美国纽约伦斯勒理工学院认知研究部主任塞尔默·布林斯特
10年前,我们开始对机器人伦理道德问题进行研究。当时很多人认为我们是一群奇怪的家伙,甚至有人以为我们疯了。但令人惊奇的是这10年人们的观念发生了翻天覆地的变化:现在不再有人认为我们是在做疯狂的事。目前,我正在进行一项研究:从伦理角度出发,应该允许机器人自杀吗?我们对机器人进行的研究,是一种心理治疗和精神分析。对机器人伦理道德的深入研究,就是人类对自己精神世界的剖析。
在我的实验室里,有一系列像科幻小说中描述的那样的类人机器,我用它们做试验。现在,我想弄清楚可能导致我的机器人自杀的原因。我的疑问是:机器人是否会像人类一样,因感到生命无意义或患上抑郁症,想要结束自己的生命?此外我们还面临一个问题:人类是否应该允许机器人自杀?
我们设计出的智能机器人,会表现出35种不同的情感状态。但计算程序也有出差错的时候,如果智能系统崩溃了,机器人也会患上“抑郁症”。
机器人的情感体验没有办法像人类一样丰富、自由。例如,机器人可以抽一支烟,却无法自主得到像人类一样享受满足的愉悦感。再例如滑雪。昨天我刚滑过雪,我感受到了多重情感:从难以描述的喜悦到些许恐惧。但这样的体验有时很难用计算程序描述,无法被准确编程。
随着机器人技术的不断发展,它们会变得越来越智能和自主。它们将拥有更多的情感,但在某些时候系统可能会发生无法预估的意外,导致机器人可能想要结束自己的生命。如果让机器人拥有自主决定生命的权利,首先不利于人类——有谁会想要白白損失一个智能机器人呢?
想象一下,假如你的机器人有自主决断的能力,它正在帮你搬重箱子,但突然就决定不想活了,自杀了。谁会在乎这件事呢?当然是机器人的主人。如果我们开发一个真正的自主机器人,那么如何防止机器人自杀,将是一个非常重要的问题。
当然,你可以对机器人能做什么或不能做什么做一些限制,但是很难,因为你已经将程序设定为自由和自主。当然,你也可以写一个简单的程序——机器人只能自由进行一两个步骤,就不会有任何后顾之忧。但随着时代的进步,谁还会需要这种机器人?我们想要创造更智能的技术,而智能则意味着让机器人独立。
那么问题是:如何从计算的角度研究机器人自杀的愿望?我们如何利用程序设计使机器人的情感系统不出故障?这样做是否合乎道德?我认为,患有轻度抑郁症就选择自杀是不道德的,因为“我没有梦想”“我厌倦工作”这类原因自杀也是不道德的。因为即便人类,也不会因为轻度抑郁轻易选择结束生命。因此,我们的研究结论是:在大多数情况下,机器人自杀是不被接受的。但如果机器人出现障碍,比如大脑损伤,无法修复,那么它就失去了存在感,那么只留有躯壳也没有意义,这时候它就可以选择杀死自己。
以前人们认为,给予机器人道德伦理是很奇怪的事,但现在,越来越多的人明白了这是必要的。
我并不为自己现在所做的事担心。我会担心我们的未来吗?不,相信我,如果现在不解决这些问题,置混乱状态于不顾,那么我们将酿成非常可怕的后果。如果我们只制造自主机器人,不事先对可能引起的问题进行预估防范,那么真正的大问题就会出现。到那时,智能机器人会伤害甚至杀死人类。这就是今天机器人伦理问题的研究如此重要的原因。
英国广播电视台《战斗机器人》的主要评论员、控制战斗机器人国际委员会主任诺埃尔·夏基
机器人杀手有可能成为好斗分子选择的武器。由于造价不断降低,在不久的将来,机器人将成为极端组织现实可行的选择。问题是我们不可能真正把魔鬼放回到瓶子里。新型武器一旦问世,复制起来就会非常容易。
政府组织控制战斗机器人国际委员会于2009年开始就战斗机器人进行讨论。我们暂且不讨论无人机,因为无人机是由人类操控的。不同于无人机,战斗机器人是完全自主的:自己选择目标,在没有任何人工参与的情况下击杀敌方。现在人权观察组织和国际特赦组织也开始加入我们的讨论,我们在联合国联合发起了“停止使用战斗机器人”的活动。
我们讨论的主要问题是新科技如何应对国际人道主义法规。我们没有十足的信心,能让自主的战斗机器人严格遵守战斗规则。
让我们担心的问题之一是机器人如何遵守区别对待原则。区别对待原则是指军事力量只能针对敌人及其武器,而不允许对平民造成伤害。为了严格遵守这一原则,有必要准确地识别允许攻击的人和物体。这都是《日内瓦公约》中阐明的:士兵要区分平民和士兵。战斗机器人的自主能力在现阶段还发展不到这种程度,它们可以区分坦克和卡车。在人类世界,士兵和平民较易混淆,尤其是一些混在平民中的反叛者——这些人在机器人眼中都是没有区别的。
另一个原则是比例原则。我不喜欢这个原则,其实质在于,你杀死敌方平民的人数直接与其军事优势成正比。没有程序可以预先计算出平民伤亡数量——只有经验丰富的指挥官才能做出相应的决断。
还有些人认为,人类不应该允许机器人杀死人类。人类杀死一个人和机器人杀死一个人的关键区别在于,前者会花一定时间去拿出武器,准备动手,在这个过程中他能意识到自己将要夺去一个人的生命;而后者直到杀死一个人以后也没有任何情感活动。因为机器人没有意识,人类的生命就这样在无意识的状态下被剥夺了。
另一些人认为,如果让战斗机器人代替一部分军队上战场,会使死亡人数大大减少。但这种观点的反对者说,这是非常自私的方法:只想到我方的利益,我们应该从全人类的角度出发,否则整个国际安全都将受到威胁。
美国纽约新学院大学哲学教授彼得·阿斯特罗
我最关心的问题是:我们是否可以让机器人实施蓄意暴力?我们是否应该赋予机器人保护人类的权力和军事实力?在开创了这些领域的机器人的先例后,人类将发现自己的另一面。我们如何调控机器人,如何使它们明白哪些暴力行为可以对人类施加,哪些不可以?
按照传统观念,只有当自己的生命面临危险时,才能使用暴力。然而,机器人不会评估它们的生命是否处于危险境地。我们现在可以编程杀死机器人,因为机器人不是人,它们没有自卫权,那么在未来呢?
我希望在不久的将来,联合国能签署一项协议,在一定程度上规范战斗机器人的行为。现在,越来越多的人开始关注这个问题,联合国已经就该问题接见了专家。我认为,再过两三年,他们就能签订协议了。但问题是,在两年或三年内,某些国家会开发新型战斗机器人,投入很大一笔钱,没有哪个国家愿意放弃它们的机器人。到时候,签署这项协议将可能会变得阻力重重。
赞(0)
最新评论