微众银行日前向电气和电子工程师协会(IEEE)提交的“可解释AI(XAI)”标准立项通过,第一次标准工作组会议于7月24日召开。
IEEE是全球最大的非营利性专业技术学会,在学术及国际标准等领域具有公认权威性,已经制定了900多个现行工业标准。
可解释A是人工智能的一个新兴分支,也是下一代人工智能的核心关注点之一,用于解释人工智能所做出的每一个决策背后的逻辑,是人工智能发展中以人为中心的重要体现。目前相关技术研究已经获得了一些进展,但在工业应用中缺乏系统性的行业标准。
微众银行和众多合作伙伴基于金融、零售、智慧城市等多领域业务场景中对AI技术安全合规、可解释性的理解,向IEEE标准协会提交了可解释AI的标准立项申请。2020年6月,IEEE标准协会正式批准了关于可解释AI体系架构的标准P2894(Guide for an Architectural Framework for Explainable Artificial Intelligence)立项。
7月24日,微众银行作为牵头机构组织了第一次标准工作组会议的再开,IEEE、微众银行、华夏基金、京东城市、腾讯云、华为、第四范式、逻辑汇、创新工场、倍漾科技、新奥能源、依图、星云Clustar、华大基因、中电科、中科院计算所泛在智能研究院、松鼠AI、海信、AI Singapore、Eduworks、中国电信广州研究院在内的21家机构和企业共同参与。微众银行人工智能首席科学家范力欣博士担任工作组主席并主持了会议,微众银行首席人工智能官杨强教授被推举为工作组的荣誉主席,华夏基金首席数据官陈一昕博士担任副主席。
本次会议对标准的目标、愿景等进行了阐述,明确该标准是为了确保应用AI中的数据处理、机器学习建模等过程对于用户、决策者、监管者等是可解释的,同时满足对于隐私、安全、责任、公平、法规等的要求。并对整体内容进行规划,标准将对可解释AI的定义、分类、应用场景、性能评估等进行系统性的规范。
此次正式立项的IEEE可解释AI标准将成为国内乃至国际上首个专门解决人工智能落定应用中“黑箱”问题的行业标准。正如中科院院士张钹在多次公开演讲上所提到:“人工智能距离‘超越’人还差得远,当前人工智能的最大问题是不可解释和不可理解,未来AI要走向可解释人工智能,将这个黑箱打开。”技术落地,标准先行。随着行业标准的出台与相关技术的成熟,相信我国发展负责任AI的进程将不断加快。
责任编辑:kj005
文章投诉热线:156 0057 2229 投诉邮箱:29132 36@qq.com