视觉检测领先者
全国咨询热线:13812953225

深度解读《人工智能的可解释性

发布时间:2024-03-27 11:30:03   来源:视觉软件

用与谷歌合作的一个调查数据告诉我们人工智能对于每个国家所带来的影响,左边这幅图,显示的是如果国家...

产品介绍

  用与谷歌合作的一个调查数据告诉我们人工智能对于每个国家所带来的影响,左边这幅图,显示的是如果国家能够持续对AI产业采取比较积极投资和政策支持,2030年这些国家的GDP将得到非常明显的更进一步的提升。而增长最快的是澳大利亚,能增加2.71%的GDP,反之则带来很不利的影响。

  但随着AI研究与应用不断取得突破性进展,高性能的复杂算法、模型及系统普遍却缺乏决策逻辑的透明度和结果的可解释性,导致在涉及需要做出关键决策判断的国防、金融、医疗、法律、网安等领域中,或要求决策合规的应用中,AI技术及系统难以大范围应用。而XAI(eXplainable Artificial Intelligence)技术就是主要研究怎么样使得AI系统的行为对人类更透明、更易懂、更可信。

  主讲嘉宾:菲律宾联合银行人工智能和数据资深顾问 David Hardoon 博士

  它就好像在1914年拿到了一辆福特T型车,很多驾驶员可以解释他大部份的工作原理,懂得如何自己修理。而现在当我们拿到了一辆特斯拉,我们可能不知道它的运作原理,只是了解这一个启动按钮,踩一下这个油门,这辆车就开了。

  与长期的汽车演化历史相比,AI的出现和广泛的运用是如此的突然,而在如此短暂的时间里,我们作为使用者,无法完全了解这个产业链的相关信息,所以在可解释性的第一个层面,就是回答这样的一个问题:谁了解这个技术和它的产业链,谁为什么环节负责,如何负责。这将是我们建立信任的基础。

  可解释性,其实是人性的需求,也是建立互信的需要。理解这个底层需求,是非常很重要的。我们不仅仅讨论的是可解释性,我们其实就是通过解释,通过让人了解,去建立彼此的互信。

  人工智能的可解释性为使用它的人,使用它的产业,提供了一种信任的基础。有了这样的基础,AI才可以在更广的范围内发挥它更大的作用。那当不同的人工智能模型组成一个复杂的系统时,我们该如何体现总系统的可解释性?

  我们使用计算机视觉对图像进行学习和分析,来判断图像当中哪些是狼,哪些是哈士奇。在左下角的这幅图里,这个算法错误的把一只哈士奇当作了狼。这是因我们在选择培训数据,也就是这些图片的时候,大部份狼的图片背景中是雪地。于是这个计算机视觉的人工智能算法一下就侦测到了这个很明显的区别,将这个区别作为他判断是狼还是哈士奇的一个标准,而不是专注于狼和哈士奇面部的一些细微的区别。如果我们事前不知道培训数据里的这样的区别,仅仅基于这个计算机视觉所给我们的结果,我们很难发现机器视觉是如何犯下这样的错误的。

  正确的处理这些疑问和质疑的方式是,我们一定要将AI的可解释性也涉及到这些系统和算法中去。

  在Element AI 一项针对大型的零售商或者产品方使用的AI系统中,能够很有效的找出市面上已经存在的山寨产品,但是这个系统的工作原理却是在一个黑匣子里面,它所做出的判断非常难建立法理上的依据,这让我们的使用方很难基于这套系统的结果对侵权的个人或企业采取法律行为。所以我们做的是,在这个AI系统的开发中,我们加入了一个热能成像的视图,去解释山寨产品是如何在使用的过程中侵犯到正规品牌的。而这一个可解释性的设计,为我们的客户提供了一个可以对侵权个人或企业采取法律行动的依据。我们之所以可以在我们的系统中设计出这样的一个可解释性,是因为我们对系统、对用户、对使用场景,以及对监管部门的需求的深刻了解。

  人工智能的系统中,它所有的参数和设置都是动态的,都是根据各种各样的反馈系统自我调试和演化的。而且在这样的一个过程中,AI系统的使用者也在和AI系统产生着互动和影响,我们不仅仅需要能够解释基本人工智能模型的能力,我们而且需要能够解释复杂人工智能模型的能力。

  2、人工智能的可解释性还是一个相当早期的领域,我们并没有非常成熟的,或是广为接受的标准去判断可解释性的好坏。这就造成我们无法判断我们是否在提高可解释性,我们也无法非常准确的判断解释方法方式的优劣;

  3、目前我们所开发的可解释性,对于大多数的使用者来说并不能用于指导他们的行为或者决策。

  1、我们可以把系统各个组成部分中的,可解释性集中在一起分析整理,从而得出通过一个培训过的机器识别模型,把微观层面上的可解释性,转化成为宏观层面上的可解释性,是我们觉得一个增加整体系统可解释性的有效方法;

  2、在AI系统开发的早期,就邀请政策法规的制定机构或有关人员参与。这样我们在系统中可以更方便的加入可解释性,这个不但对之后的业务会有很大的帮助,也是一个很有效的方式降低相关的风险;

  3、通过为已经有的AI系统,添加一套可解释性的设计,可以大幅度提高用户对系统的理解程度。

  就拿传统的药物开发来说,一个新药的上市一定要经过3个阶段的临床实验和数据的收集。有了这一些数据,一个新药才能得到监管部门的备案,才能上市。在某一种意义上说,这些流程和数据就是新药开发过程中所必须有的可解释性。因我们将会在人身上使用这一些新药,而人体是一个非常很复杂的系统,我们一定要能够充分地了解在各种情况下人体对新药的反应。

  然而面对新冠疫情,我们急需疫苗和治疗方案,作为一个是整体,我们的社会或许可以在这样的一个过程中权衡利弊,在数据尚且还没完备对情况下,在一定可承受的风险范围内,加速新药或者疫苗的上市。在人工智能的领域,可解释性在某些方面就好像一个风险控制的工具,根据具体的应用场景,有时候我们也需要权衡利弊,有时候承担多一些风险,能够更快或者更好的整体回报。

  人工智能的可解释性,一定是现在也是未来一直热门探讨和研究的课题,我们将共同期待AI在整个社会结构和人类伦理中,得以更全面的发展。

  创士锋为国际或国内的科技公司和创业者提供一站式国际科创交流、共建和投资服务,帮助国际企业落地中国、合资共建或帮助国内企业通过新加坡建立海外业务和科学技术创新合作基础,拓展新的市场。