关于ZAKER ZAKER智慧云 免费视频剪辑 合作 加入
雷锋网 08-17

蚂蚁集团三项可信 AI 实践方案入选中国信通院标杆案例

8 月 16 日,中国信息通信研究院主办的 "2022 可信 AI 峰会 " 在京举行。会上公布了 "2022 年可信人工智能实践案例 " 评选结果,蚂蚁集团共有三项可信 AI 实践方案入选标杆案例。

蚂蚁集团入选的三项标杆案例,分别是基于可信 AI 技术支撑的 " 蚂蚁可解释机器学习平台 FinINTP"、" 蚂蚁可解释 AI 的安全风控实践 " 及 " 蚂蚁 AI 安全检测平台 "。

图:蚂蚁集团三案例入选中国信通院 "2022 可信人工智能实践案例 " 标杆案例

近年来,安全和可信性已成为制约下一阶段人工智能技术发展的瓶颈所在。早在 2017 年,国务院《新一代人工智能发展规划》中,就重点提及人工智能的安全可信性。今年 5 月起,中国信通院面向全社会征集 2022 年可信人工智能实践案例,最终选出 35 项优秀案例、13 项标杆案例,为行业开展可信 AI 应用工作提供了示范指引。

当下,AI 越来越多参与到重要决策中,它的思考不能是 " 黑盒 "。蚂蚁集团自主研发的 " 蚂蚁可解释机器学习平台 FinINTP",结合规则学习、机器学习等技术,不仅实现了智能风控等多种场景的可解释模型和规则建设,还开发了多种基于扰动的可解释器和基于梯度的事后解释器,可实现对批量异常风险要素的提前感知。

蚂蚁集团基于可解释 AI 的安全风控实践,沉淀了一套可解释 AI 系统。该系统采用基于特征、基于模型到基于逻辑的分布式可解释框架,将百万量级预测样本的可解释计算速度提高 100 倍以上;同时通过人工经验和机器学习交互结合的方法,确保 AI 决策结果的天然可解释。目前,这套系统已在蚂蚁智能风控、投诉审理,反洗钱等场景应用。

如何提高 AI 的鲁棒性,即抗攻击对抗能力及稳定性,以应对复杂多变的数据环境,也是可信人工智能的重要议题。此次入选标杆案例的 " 蚂蚁 AI 安全检测平台 ",是业内首个面向工业场景全数据类型的 AI 安全检测平台。该平台可自动化评估不同数据和攻击类型的 AI 安全风险,并提供安全性增强方案,将于 9 月免费对外开放鲁棒性测评,并将持续增加可解释性、算法公平性、隐私保护的检测能力。

清华大学副教授李琦表示,人工智能可信问题广受学术界和工业界关注,AI 可解释性是实现可信 AI 的关键技术,但目前行业探索较多停留在理论层面,缺少通用的可解释框架。蚂蚁集团在可信 AI 技术领域上的创新应用,为可信人工智能技术的发展提供了更加广阔的思路。

公开资料显示,蚂蚁集团自 2015 年起投入可信 AI 技术研究,2016 年全面启动人工智能风控防御战略,目前已在反欺诈、反洗钱、反盗用、企业联合风控、数据隐私保护在内的多个场景落地,形成了新一代智能风控体系 "IMAGE",支撑全风险域的防控。

互联网新闻

互联网新闻

前沿科技创业资讯

订阅

觉得文章不错,微信扫描分享好友

扫码分享