看过本文的还看了

相关文献

该作者的其他文献

文献详情 >人工智能对抗环境下的模型鲁棒性研究综述 收藏
人工智能对抗环境下的模型鲁棒性研究综述

人工智能对抗环境下的模型鲁棒性研究综述

作     者:王科迪 易平 WANG Kedi;YI Ping

作者机构:上海交通大学网络空间安全学院上海200240 

基  金:重点研发计划(No.2017YFB0802900)资助 

出 版 物:《信息安全学报》 (Journal of Cyber Security)

年 卷 期:2020年第5卷第3期

页      码:13-22页

摘      要:近年来人工智能研究与应用发展迅速,机器学习模型大量应用在现实的场景中,人工智能模型的安全鲁棒性分析与评估问题已经开始引起人们的关注。最近的研究发现,对于没有经过防御设计的模型,攻击者通过给样本添加微小的人眼不可察觉的扰动,可以轻易的使模型产生误判,从而导致严重的安全性问题,这就是人工智能模型的对抗样本。对抗样本已经成为人工智能安全研究的一个热门领域,各种新的攻击方法,防御方法和模型鲁棒性研究层出不穷,然而至今尚未有一个完备统一的模型鲁棒性的度量评价标准,所以本文总结了现阶段在人工智能对抗环境下的模型鲁棒性研究,论述了当前主流的模型鲁棒性的研究方法,从一个比较全面的视角探讨了对抗环境下的模型鲁棒性这一研究方向的进展,并且提出了一些未来的研究方向。

主 题 词:对抗样本 模型鲁棒性 人工智能安全 

学科分类:0402[教育学-体育学类] 0303[法学-社会学类] 0810[工学-土木类] 0832[0832] 0302[法学-政治学类] 1201[管理学-管理科学与工程类] 0808[工学-自动化类] 0839[0839] 08[工学] 0837[0837] 0835[0835] 0812[工学-测绘类] 

D O I:10.19363/J.cnki.cn10-1380/tn.2020.05.02

馆 藏 号:203953222...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分