AI系统的安全测评和防御加固方案.pdf
深度学习模型在很多人工智能任务上已取得出色表现,但精心设计的对抗样本却能欺骗训练有素的模型,诱导模型作出错误判断.对抗攻击的成功使得AI系统的可用性遭受质疑.为了提升AI系统安全性和鲁棒性,文章遵循安全开发流程,提出针对AI系统的安全测评和防御加固方案.该方案通过精准检测和拦截对抗攻击、科学评估模型鲁棒性、实时监控新型对抗攻击等措施,提升系统抵御对抗攻击的能力,帮助开发人员构建更安全的AI系统.
作者:王文华郝新刘焱王洋
作者单位:百度安全,北京100085
母体文献:第35次全国计算机安全学术交流会论文集
会议名称:第35次全国计算机安全学术交流会
会议时间:2020年10月16日
会议地点:南宁
主办单位:中国计算机学会
语种:chi
分类号:
关键词:人工智能系统 安全测评 对抗攻击 防御加固
在线出版日期:2022年1月20日
基金项目:
相似文献
相关博文
- 文件大小:
- 1.16 MB
- 下载次数:
- 60
-
高速下载
|
|