作者:记者 倪伟波综合报道 来源: 发布时间:2018-3-8 14:0:17
人工智能的信任危机

 
随着深度学习技术的不断发展与成熟,人工智能(AI)正逐步从尖端技术变得普及。自语音识别、视觉识别、机器学习等相关技术相继走出实验室,人工智能在金融、零售、医疗、汽车等多个领域落地应用。
 
当然,人工智能的本领并不限于此,它还能够预测未来。比方说,警方正在利用它来预判犯罪可能的发生的时间和地点;医生则可以用它来预测病人什么时候最有可能发作心脏病或者中风;研究人员甚至试图赋予人工智能想象的能力,期待其能规划出人类意想不到的结果。
 
其实,我们生活中的许多决定都需要事先预测才能做出,而随着技术的发展,人工智能的预测能力几乎总是比人类优秀。然而,尽管在技术上前进了一大步,但是人们似乎仍然对人工智能的预测缺乏信心。最近有研究表明,人们不喜欢依赖人工智能,而更倾向于相信人类专家,即使这些专家的预测是错误的。
 
如果想让人工智能真正造福人类,那就必须找到一种方法让人们相信它。为此,我们首先要弄懂为什么人们不愿意相信人工智能。
 
AI医生
 
毫无疑问,IBM公司的超级计算机Watson是人工智能界的明星,并被认为潜力无限。
 
2013年,Watson与世界顶级癌症研究机构MD安德森癌症中心合作,打算通过“使用IBM Watson认知计算系统消灭癌症”项目让Watson变身成为“癌症医生”。然而事与愿违,这次合作最终以失败收场。
 
Watson承诺将提供治疗12种癌症(包括乳腺癌、直肠癌、结肠癌、胃癌、宫颈癌等)的高质量咨询服务,这些癌症占世界病例总数的80%。截至目前,全世界已有超过1.4万名患者接受了基于其计算结果提供的治疗意见。
 
“我们现在可以看到很多真实的案例,患者们告诉我们‘听了Watson的建议我现在感觉舒服多了’。他们的这番话让我感觉从事这项事业是非常值得的,因为它正在给患者和医生带去更好的体验。”IBM全球Watson健康总经理Deborah DiSanzo表示。
 
听了这样的描述,你或许对Watson充满期待。然而根据美国医学媒体STAT对Watson在世界各地医院提供的服务的调查显示,超级计算机并没有达到IBM对它的期望,它仍在努力学习不同形式的癌症治疗的基本步骤。
 
两难境地
 
不仅如此,当医生们第一次与Watson互动时,他们发现自己陷入了一个两难之境。
 
一方面,如果Watson提供了与他们一致的治疗指导意见,那么医生们便无法看出Watson的建议有多大的价值。因为超级计算机只是简单地重复医生已经知道的东西,这些建议并没有改变实际的治疗方案。但换一个角度思考,这也许让医生对自己的判断更有信心。
 
另一方面,如果Watson提出的建议与专家的意见相矛盾,那么医生们通常会得出结论:Watson无法胜任。当然,机器无法解释为什么它的治疗方案是合理的,因为它的机器学习算法太过复杂,无法被人类完全理解。这样的结果导致了更多的不信任和怀疑,也使许多医生选择忽视人工智能提出的建议,坚持自己的判断。
 
如今,MD安德森癌症中心已宣布暂停与IBM Watson针对肿瘤治疗推出的“Watson for Oncology”项目。当然,中止与人工智能合作的并非这一家。从一份来自丹麦的未发表调查中可以看到,人机诊断的一致度只有大约33%——所以医院决定不购买这套系统。
 
实际上,Watson的问题在于医生根本不相信它。人类的信任通常是建立在对他人如何思考及其可靠性的理解之上,这有助于营造一种安全的心理感受。另一方面,人工智能对大多数人来说仍然是相当新颖且陌生的,它使用复杂的分析系统进行决策,以识别潜在的隐藏模式和来自大量数据的“微弱信号”。
 
即使可以从技术上进行解释(事实并非总是如此),对于大多数人而言,人工智能的决策过程通常是难以理解的。而人们与其不理解的事物进行互动,往往会产生焦虑,并让人有失控的感觉。当然,很多人也不太熟悉人工智能实际工作的诸多案例,毕竟它经常在后台运作。
 
相反,人们对人工智能的出错却很“敏感”。比如,堪称人工智能和机器学习领域的领导厂商——谷歌发布的“Photos”应用曾犯下只看颜色不看脸的错误,误将两位黑人用户照片标记为“大猩猩”;微软推出的名为“Tay”的人工智能机器人在上线不到一天的时间里就成为了“种族主义者”;而一辆特斯拉汽车在自动驾驶模式下与一辆卡车相撞,导致了一场致命的意外事故发生……
 
这些不幸的案例受到了媒体的大量关注,进一步突出了“我们不能依赖科技”这样一种讯息。机器学习并不是万无一失的,毕竟设计它的人也会犯错。
 
人工智能鸿沟
 
科研人员曾经做过这样的一个测试:让来自不同背景的人观看关于人工智能的各种科幻电影,然后询问他们关于日常生活中自动化的问题。
 
结果研究人员发现,不管他们观看的电影描绘人工智能的方式是积极的还是消极的,只要看到的是对技术未来的展望,就会让受试者产生两极分化的态度:乐观主义者对人工智能的热情会变得更加极端,而怀疑者则变得更加谨慎。
 
这表明人们是以一种带有偏见的方式使用有关人工智能的相关证据来支持他们现有的态度的。事实上,这是一种根深蒂固的倾向,又被称为“验证性偏见”。
 
随着有关人工智能的报道越来越多,它可能会引发严重的社会分化——即在那些受益于人工智能和拒绝人工智能的人之间产生分歧。更有针对性的是,拒绝接受人工智能带来的好处,可能会让一大群人处于严重的不利地位。
 
幸运的是,关于如何提高人们对人工智能的信任度,研究人员已经有了一些想法。正如在研究中发现的那样,简单地使用人工智能就能显著改善人们对这项技术的态度。这就正如互联网甫一出现时,人们同样秉持怀疑与谨慎的态度,然而随着互联网的日益普及,人们便逐渐毫无戒心地使用并信任它们。
 
另一种解决方案可能是打开机器学习算法的“黑匣子”,更加透明地展示人工智能是如何工作的。目前,谷歌、推特等公司已经发布了政府要求提供的数据请求和监控信息透明度报告,类似做法可以帮助人们更好地理解人工智能基于算法所作出的各种决策。
 
研究表明,让人们更多地参与人工智能的决策过程也可以提高人们的信任度,并能让人工智能学习人类的经验。例如,一项研究表明,人们可以自由地稍微修改一种算法,这样做可以使他们对自己的决定更为满意,更有可能相信它更优越,并且更有可能在未来使用它。■
 
《科学新闻》 (科学新闻2018年2月刊 AI)
发E-mail给:      
| 打印 | 评论 |