科技
设为书签Ctrl+D将本页面保存为书签,全面了解最新资讯,方便快捷。
业 界/ 互联网/ 行 业/ 通 信/ 数 码/ 手 机/ 平 板/ 笔记本/ 相 机
当前位置: 科技 > 科学 >

算法“黑箱”下人工智能安全存疑 可解释性让AI更透明

算法“黑箱”下人工智能安全存疑 可解释性让AI更透明
2022-01-23 19:37:06 来源:科普时报

“AI的应用落地在不断提速,但在算法‘黑箱’下,AI的不可解释性让‘黑箱’很难释明,进而让人们对AI的安全难言放心。”日前,在2022年科技向善创新周上,与会专家围绕AI的透明和可解释难题从技术角度直指产业痛点。

与此同时,由腾讯研究院、优图实验室等多家机构组成的跨学科研究团队历时一年完成的《可解释AI发展报告2022》也引发热议。报告从可解释AI的概念、监管趋势、行业实践、发展建议等热点问题出发,抽丝剥茧地呈现可解释AI产业的现状和发展趋势,以期能为产业解决AI“黑箱”释明难题提供一份参考和借鉴。

可解释AI已成热点

目前,部分人工智能应用已成为通用型的技术,而人类对AI则一直有更高的期待。不少人坚信,科幻电影《Her》中的AI机器人可对行为作出解释,从而帮助人类作出决策,甚至与人类产生深度交流的一幕,迟早也会出现在人们的日常生活中。

虽然产业的发展已经起步并快速成为行业热点,但这些过于理想化的场景目前还只能存在于科幻作品中,实践中可解释AI不论在技术上还是体验上都还没达标。

如今,金融机构的贷款审批都是基于AI作出决策,如果这一复杂的算法风控系统拒绝申请,那么贷款人就没办法获得贷款。这只是AI在众多日常场景应用中的一幕,只要是AI做出了决策,公众就必须接受结果,至于什么原因,算法没有也不可能给出解释。

“有时候连开发人员都不能很好地理解AI算法‘黑箱’运作的具体细节,这就导致了AI模型的透明度和可解释性的问题。”腾讯研究院秘书长张钦坤表示,如果不解决这两个问题,不仅影响用户对AI应用的信任,而且也可能会带来算法歧视、算法安全和算法责任等方面的相关问题。

其实,人工智能的可解释以及科技伦理等问题已经成为AI领域的必选项,2021年起始的“十四五”规划里面也明确强调要健全科技伦理的体系。

厦门大学人文学院院长朱菁认为,AI可解释性问题之所以受到重视,主要因为AI的发展虽然变得越来越强大,但也变得越来越“黑”,再者AI虽然变得越来越实用,其可靠性和应用范围也得到提高。“在一些重要的应用领域,对于AI可信任性、安全性等方面的要求也越来越高,可解释性就是满足上述要求的认知基础。”

目前来看,国内企业在可解释AI实践方面还比较零碎,没有达到系统化的程度,但就整体而言,产业一直都是朝着可解释的方向发展。

鱼和熊掌不可兼得

AI快速深入日常生活,既带来了兴奋和期待,也带来一些忧虑,甚至恐慌。AI到底是人类的好帮手,还是会成为人类强劲的对手?其实这很大程度上取决于人类对AI的理解。只有打开了人工智能的黑箱,了解到AI背后的机制,并认为它是可解释、可理解的,人类在这种共识下才能真正达成对AI的信任。

然而,当前的AI可解释性及透明度与算法的高效率还是一个矛盾体。

微众银行首席人工智能官杨强认为,AI算法高效率的同时,可解释性就很差。同样,AI线性模型准确率没有那么高,它的可解释性相对就会强一些。“这就意味着我们要在可解释和高效率两个维度上做一个取舍,但目前并没有两个维度都高的AI算法。目前可解释AI在各个行业都是一个起步,也都不可或缺,但如何做好AI可解释的量化,才是当前业界该考虑的重点。”

“不同人群、不同应用场景对AI算法的可解释性期待是不一样的,不应该搞一刀切。现阶段深度学习普遍缺乏可解释性的情况下,AI透明度就尤其重要。”腾讯天衍实验室负责人郑冶枫表示,AI算法应尽可能详尽披露模型、训练数据分布等情况。

朱菁也认为,目前来说,AI的可解释性和预测的准确性二者不可兼得,既提高预测准确性,同时还要把可解释性提高,要实现这件两全其美的事情难度比较大。其次,解释的多元化除了怎么都行的这种形态以外,还有孤岛式的、互动式的以及整合性的形态。“这些只是同一个整体的不同侧面,AI能不能做到这些,现在其实并不是很清楚。”

推动可解释模型构建

可解释是可信AI的重要组成部分,也是可信的前提条件之一,它有很强的独特性。当前可解释AI研究思路很多,但并没有一个明确的框架,毕竟解释对象的不同,框架也难统一。

香港中文大学(深圳)吴保元副教授认为,与其说AI的可解释性,还不如称之为AI的可解释力。“可解释性可能会让人们误认为这是一种性质,而可解释力就是一种可解释的能力,就如同人们常说的理解力、领导力,是一种手段,一种行为,一种操作的存在。”

《可解释AI发展报告2022》从科技向善的角度出发,认为需要找到一个平衡的可解释AI路径来实现可信AI,确保科技向善。张钦坤解释说,就是在设计可解释性要求时,需要充分考虑可解释性要求和其他重要的伦理价值和目的,可解释本身不是目的而是手段。“在设计可解释AI的时候,首先需要考虑实现什么样的目标,其次才是思考在特定的情境下如何更好地匹配这些目标。”

对于AI研究里的解释性问题的基本立场,朱菁的建议是解释的多元化:“针对不同的问题,哪怕是在同一个领域里,也不能指望只有唯一的解释方式或模式,要允许多种多样的解释模型存在。”

责任编辑:kj005

文章投诉热线:156 0057 2229  投诉邮箱:29132 36@qq.com
关键词:

植发值不值?专家指出植发只是治疗环节之一

2022-01-22 10:21:27植发值不值?专家指出植发只是治疗环节之一

“双千兆”网络设施建设加快 累计开通5G基站达142.5万个

2022-01-20 11:05:34“双千兆”网络设施建设加快 累计开通5G基站达142.5万个

数字化创新引领发展 加快释放数字经济强劲动能

2022-01-20 10:47:00数字化创新引领发展 加快释放数字经济强劲动能

机器人赛道炙手可热 工业机器人演进分水岭

2022-01-19 10:26:14机器人赛道炙手可热 工业机器人演进分水岭

长征二号丁遥七十运载火箭成功发射 中国航天2022年迎来开门红

2022-01-18 10:19:27长征二号丁遥七十运载火箭成功发射 中国航天2022年迎来开门红

大疆“由空转陆”,为自动驾驶之梦修炼内功

2022-01-18 09:12:02大疆“由空转陆”,为自动驾驶之梦修炼内功

相关新闻

最新资讯