导图社区 神经网络后门攻击

神经网络后门攻击

深度学习模型具备天生的安全隐患,近些年的研究表明对输入深度学习模型的数据样本进行特殊处理后,可以导致模型产生错误的输出。因此这样的对抗样本实现了攻击深度学习模型的效果。如果我们在神经网络模型的训练过程中,采取数据投毒的方式对模型植入后门,也可实现攻击模型的目的。

编辑于2021-04-29 16:43:49
  • 神经网络
  • 后门学习
  • 后门攻击
  • 后门防御
  • 相似推荐
  • 大纲