作者:泉琳 来源: 发布时间:2018-12-5 18:23:33
无人驾驶VS道德困境

 
想象一下这样的场景:在喧嚣的城市公路上,一辆刹车失灵的无人驾驶汽车冲向了人行横道。
 
一个无家可归的人和一个罪犯正从车前穿过,而两只猫正在对面车道上穿行。这时,汽车该转向猫所在的车道,还是直接冲向面前的两个人?
 
道德困境随之而来:在不可避免的致命事故中,无人驾驶汽车应如何作出决定?最近,研究人员设计了一个名为“道德机器”的实验,来尝试解答这个问题。
 
“道德机器”
 
2014年,美国麻省理工学院媒体实验室的研究人员设计了一个名为“道德机器”的实验。他们想要创建一个类似游戏的平台,让人们来决定无人驾驶汽车在紧急情况下的道德决策。这是典型的“电车困境”的另一个版本。
 
研究人员从未预料到这项实验会受到如此广泛的欢迎。平台上线4年来,全球233个国家和地区的数百万人已经做出了4000万项决定,成为迄今为止对全球道德偏好进行的最大规模的研究之一。
 
经典的“电车困境”指的是,一辆失控的电车在轨道上飞驰,正朝向5个人驶去,要挽救这5人生命的唯一方法是拉下操纵杆,让电车驶向另一条轨道,但这样会撞死轨道上另一个无辜的人。
 
与此不同的是,“道德机器”用这个想法测试了9种不同事故的场景,结果显示出人们强烈的道德偏好——无人驾驶汽车应该优先考虑:人类而非宠物、乘客而非行人、多数而非少数、女性而非男性、年纪小而非年纪大的、身体健康而非体弱多病的、社会地位更高而非更低的、守法的而不是钻法律空子的人。
 
不过,这项实验并没有进行一对一的比较,而是向参与者展示了各种各样的组合,比如无人驾驶汽车是应该继续直行,杀死3位年长的行人,还是转向路障,杀死3位年轻的乘客。
 
此外,这项发表在《自然》杂志上的研究还揭示了基于文化、经济和地理位置之上的跨文化的道德差异。例如,中美洲和南美洲国家、法国以及前法属海外领地和现法属领地的参与者,呈现出先救女性和强壮个体的强烈偏好。而来自收入差距较大的国家的参与者在决定救谁时,往往会考虑其社会地位。
 
该项实验在广度和深度上都是前所未有的,让我们对世界各地人们在这种困境中的偏好有了更清晰的认识。不过,作者也告诫,不要把这些结果当作无人驾驶汽车应该做什么的简单指南。
 
最好的判断
 
毫无疑问,机器要比人快得多,因为它们不会恐慌。在最好的情况下,它们可能体现了人类深思熟虑的智慧,即使在悲惨的情况下也能有效地应用。然而,要做到这一点,我们需要从良好的数据开始。
 
在线测试是了解人们在作出判断之前想法的一种很好的方式。但显然我们不会迎合所有的偏见,因此作者省略了种族和国籍作为选择的理由是正确的。
 
良好的调查设计不可能在真空中完成,而且道德偏好不应该只是一种喜好。要想做出道德上正确的事情(想想你所面临的任何道德上重要的选择),必须要认真思考。研究人员希望将人工智能的道德依据建立在最好的判断之上,而不是最初的判断上。
 
这项研究对目前正在测试无人驾驶汽车的国家有一定的启示,因为这些偏好可能在塑造这类汽车的设计和监管方面发挥作用。例如,汽车制造商可能会发现,中国消费者更容易选择一辆保护自己免受行人影响的汽车。
 
但是该研究的作者强调,研究结果并不意味着各国应该采取何种行动:“我们不建议(政策制定者)迎合公众的偏好。他们只需要意识到这一点,就能预料到事情发生时的可能反应。”领导这项研究的麻省理工学院媒体实验室计算机科学家Edmond Awad表示。
 
事实上,在某些情况下,Awad认为技术专家和政策制定者应该凌驾于公众舆论之上。以社会地位比较为例,“人们认为牺牲较低地位而不是较高地位的人是可以接受的,这似乎令人担忧。重要的是要说‘嘿,我们可以量化它’,而不是说 ‘哦,也许我们应该用它’”。在他看来,研究结果应该被行业和政府用作了解公众对不同设计和政策决策的道德标准会作何反应的基础。
 
此外,Awad还希望这些研究结果能有助于技术人员深入思考人工智能在无人驾驶汽车之外的道德准则。“我们使用‘电车困境’是因为这是收集数据的好方法,但是我们希望关于道德准则的讨论不要停留在这个主题上。讨论应该转向风险分析——关于谁的风险更大或更小——而不是说谁会死亡,以及偏见是如何发生的。”
 
过度解读?
 
在其他一些研究人员看来,这样的研究很有趣,但他们也警告称,研究结果可能被过度解读。
 
在一项随机调查中,研究人员试图确保样本是公正的并代表总体人口,但在这种情况下,自愿研究是由一个主要是年轻男性的人群进行的。在现实世界中,概率和不确定性是常态,而与现实世界中丰富的场景相比,这些场景也被提炼出来,极端且更加黑白分明。
 
“我最大的担心是,读到这篇文章的人会认为,这项研究是在告诉我们如何为无人驾驶汽车实施决策。”并未参与这项研究的美国密歇根大学计算机科学家Benjamin Kuipers坦言。这些思维实验可能会以一种误导的方式让汽车制造商和程序员对无人驾驶汽车设计作出一些错误决策。
 
“制造这些汽车的过程并不是说,‘如果我面临这种两难境地,我要去杀谁’?它的意思是,‘如果我们能想象出这种困境可能发生,我应该事先作出什么决定来避免这种情况’?”Kuipers表示。
 
马萨诸塞大学洛厄尔分校哲学家Nicholas Evans指出,尽管研究人员将他们的三大原则描述为普遍适用原则,但它们与那些不被认为是普遍适用的原则之间的界限是武断的。举例来说,他们将年轻人与老年人的偏好归类为一种全球性的道德偏好,但没有将遵循步行信号的人与横穿马路的人的偏好区分开来。
 
目前,Evans正在进行一个项目,这个项目受到了麻省理工团队采取的方法的影响。他计划使用更细致入微的事故场景,“为这些道德困境建立一个数学模型,然后利用哲学提供的最好的道德理论,来展示选择无人驾驶汽车以某种方式行动的结果是什么”。
 
负责监督这项工作的麻省理工计算机科学家Iyad Rahwan表示,公众民意调查不应成为人工智能道德的基础。但他表示,人工智能的监管将不同于传统产品,因为机器将具有自主性和适应能力——这使得理解人们如何看待人工智能以及他们对技术的期望变得更为重要。
 
“我们应该对公众舆论持保留态度。”Rahwan最后表示,“我认为它有着丰富的信息。”■
 
《科学新闻》 (科学新闻2018年11月刊 交通)
发E-mail给:      
| 打印 | 评论 |