首例无人驾驶车撞死行人案,这锅谁背

2018年03月22日 14:21   来源:光明网   光明网评论员

  今日(3月22日)有新闻报道称,美国警方公布了Uber自动驾驶汽车撞死行人一案事发前的视频记录,视频显示,撞车前测试人员在开小差。

  三天前,网约车公司Uber在美国亚利桑那州坦佩市的一辆路测无人车,撞死了一位横穿马路的49岁妇女,这是全世界第一宗无人车撞死行人的事故,事故引发了全球舆论震惊,也让关于无人车的伦理学争论再次升温。

  无人驾驶汽车已不是新闻——国外有谷歌、Uber、福特、丰田,国内百度、清华大学、国防科技大学,都在研发无人驾驶技术。去年,一段百度掌门人李彦宏乘坐无人驾驶汽车上北京五环的视频,也引发了社会各界的关注和热议。但显然,关于这项技术的社会学、伦理学讨论才刚刚开启。它所面临的最大拷问其实是,人工智能如何在伦理情境中做出抉择?这种预先设计的抉择能够保证都带来“善”的结果么?这是个“元问题”,其他法治、管理和公共安全问题,只是这个问题的子命题。

  曾有论者设想过这样的场景:想象你的自动驾驶汽车停在路口等待前面的行人过马路,这时候,你的车子发现后面有另一辆卡车冲过来,看起来无可避免地要发生追尾事故了,但是你坐在前排座位上,这样的事故只会给你带来一点小伤——至少不会致命。如果你的汽车具备规避程序,就可以立马躲开,移到旁边的车道去,而卡车就会冲进路口,碾压行人。这种情况下,无人驾驶汽车事前设定的“规避”程序,是善还是恶的?

  在由人驾驶的汽车里,是让自己受一点小伤还是让无辜行人送命,依赖于每个人的抉择,无论是法律结果还是道德结果,也由每个人承担。但无人驾驶汽车既然有预定程序,就等于自然承担了提前解决这一伦理问题的义务。如果选择规避追尾,则对无辜行人有“蓄意伤害”之嫌;如果选择承担追尾,则没有对车主完成保护义务。

  评论者所提出的这一情境,其实是伦理学领域知名思想实验“电车难题”的变种。“电车难题”的内容大致是:一个疯子将五名无辜的人绑在一条电车轨道上,而一辆失控的电车正向他们冲去。幸运的是,你可以拉动操纵杆将电车转至另一轨道。然而,该名疯子在那条轨道上也绑了一个人。此时此刻,这根操纵杆,你拉还是不拉?在“电车难题”被提出的上个世纪六十年代,手握操纵杆的是“人”,但现在,面临拷问的是人工智能。

  要作答其实更为艰难。因为人的道德选择多样,伦理学各个流派产生了各种各样的回答,比如,功利主义者可能认为牺牲一个人比牺牲五个人更为道德;自由主义者可能认为每个生命的主体权利是平等的,为了五个人牺牲一个人同样是“恶”;而情感主义者则认为道德没有客观性,怎么选择取决于个人情感的表达。但问题是,在这种情境下设计无人驾驶汽车的程序,不啻于要完成人类集体作答,并形成统一的答案,这在哲学意义上是不可能完成的任务。

  上述背景产生了吊诡的结果,那就是,人撞死人反而是可理解的,而机器撞死人是不能接受的——因为“机器”是按照人类伦理规则事先设定程序的,程序不周或有所选择,都可能被指责为有意的“恶”。

  此次Uber无人车撞死行人的事故,虽然不牵涉复杂的情境,但仍然会引发和以往种种讨论的共振,引发“人工智能将怎样做出伦理选择”的不安。美国警方公布的情况,潜在将问题指向了测试人员的开小差,显示“坐在驾驶座上的测试安全员并没有密切关注着道路状况”、“当车辆撞上行人的一刻,安全员才突然发现状况”,这是事实陈述,但也是将机器的问题重新归为具体的人的问题。具体的人在法律和道德上承担结果是容易的、能操作的,难的是人类发明的技术如何嵌入人类生活的伦理。

(责任编辑:臧梦雅)

精彩图片