导图社区 对抗攻击与对抗防御

对抗攻击与对抗防御

深度学习模型存在着易受对抗样本攻击的安全隐患,攻击者可以通过向良性数据中心添加特定的抗动,生成对抗样本。附加轻微扰动的对抗样本不会影响人类的判断,却会使深度学习模型产生错误结果。

编辑于2021-04-29 17:22:08
  • 对抗攻击
  • 对抗防御
  • 白盒攻击
  • 黑盒攻击
  • 相似推荐
  • 大纲