freeBuf
主站

分类

漏洞 工具 极客 Web安全 系统安全 网络安全 无线安全 设备/客户端安全 数据安全 安全管理 企业安全 工控安全

特色

头条 人物志 活动 视频 观点 招聘 报告 资讯 区块链安全 标准与合规 容器安全 公开课

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

AI模型安全经典论文下载
2018-08-21 13:23:45

AI模型的安全主要包括以下几个方面。

偷取模型

image.png

数据投毒

image.png

欺骗模型

其中欺骗模型又称为对抗样本的攻击成本更低,影响更直接,成为AI模型安全研究重点。 
经典的对抗样本案例之一就是欺骗图像分类模型,在图像上增加肉眼难以识别的修改,就可以让模型搞不清是否带了耳环,把女人识别为男人。

image.png

另外一个经典的对抗样本案例就是欺骗物体识别,而且这个攻击是可以在物理世界上生效的,只要在Stop的牌子上贴上静心设计的贴纸,就可以让物理识别时效,无法捕捉到Stop的指示牌。

image.png

经典论文

对抗样本是不是很有趣?如果想深刻了解这些攻击原理,我们收集了这个领域的经典论文,并且在我们的github上传了白盒攻击的论文。后继我们还将继续在github上传黑盒攻击、物理攻击以及对应的防御方法的论文。我们的github地址为:

https://github.com/baidu/AdvBox

我们在github上开源了AdvBox,一个实现对抗样本白盒、黑盒算法的工具箱,如果想快速实践对抗样本的实验,可以clone我们项目,上面有详细案例,欢迎star和fork。

git clone https://github.com/baidu/AdvBox.git

白盒攻击

image.png

黑盒攻击

image.png

防御方法

image.png

# 机器学习 # 深度学习 # 对抗样本
本文为 独立观点,未经允许不得转载,授权请联系FreeBuf客服小蜜蜂,微信:freebee2022
被以下专辑收录,发现更多精彩内容
+ 收入我的专辑
+ 加入我的收藏
相关推荐
  • 0 文章数
  • 0 关注者