导图社区 神经网络后门攻击
深度学习模型具备天生的安全隐患,近些年的研究表明对输入深度学习模型的数据样本进行特殊处理后,可以导致模型产生错误的输出。因此这样的对抗样本实现了攻击深度学习模型的效果。如果我们在神经网络模型的训练过程中,采取数据投毒的方式对模型植入后门,也可实现攻击模型的目的。
关于光学神经网络的概念、分类、应用和代表模型。ONN 是什么意思?ONN 代表 光学神经网络。光神经网络则是利用光技术,如光连接技术和光器件技术而形成的一种新型网络。它具有超并行处理和传输信息的能力,高密度引线能力和可对图像直接进行处理的独特优点。它的基本组成单元是光神经元器件和光突触器件,其中光神经芯片又是至关重要的。
深度学习模型存在着易受对抗样本攻击的安全隐患,攻击者可以通过向良性数据中心添加特定的抗动,生成对抗样本。附加轻微扰动的对抗样本不会影响人类的判断,却会使深度学习模型产生错误结果。
社区模板帮助中心,点此进入>>
互联网9大思维
组织架构-单商户商城webAPP 思维导图。
域控上线
python思维导图
css
CSS
计算机操作系统思维导图
计算机组成原理
IMX6UL(A7)
考试学情分析系统
神经网络后门学习
研究深度学习模型的安全问题
后门攻击
可视作数据投毒攻击的子类
概念
在模型的训练过程中通过某种方式在模型中埋藏后门,该后门通过攻击者预先设定的触发器(trigger)触发。
后门未被激发时,被攻击的模型具有和正常模型类似的表现
后门被攻击者激活时,模型的输出变为攻击者预先指定的标签以达到恶意攻击的目的。
方法
基于投毒的后门攻击【poisoning-based backdoor attacks】
通过触发器(如local patch)修改一些训练样本,并替换其目标标签,生成被投毒样本(poisoned samples)。被投毒样本与正常样本同时用于训练,得到带后门的模型
增加后门攻击的隐蔽性
触发器不一定可见
被投毒样本的真实标签比一定与目标标签不同

其他
潜在后门攻击
后门防御
即使用相应的钥是开门
三种设计范式
触发器-后门不匹配
后门移除
触发器移除
概念区分
后门攻击与数据投毒
数据投毒目的是为了降低模型的泛化性能
即希望训练好的模型在测试集上不能有良好的表现
后门攻击在正常设定下具有和正常模型类似的表现
后门攻击与对抗攻击
后门攻击关注模型训练过程的安全性
对抗攻击关注模型预测过程的安全性
数据投毒攻击
针对分类器的攻击
给分类器的对抗样本中加入对抗数据
分类
模型倾斜(model skewing)
攻击者试图污染数据,让模型对好坏输入的分类发生偏移,降低模型的准确率
反馈武器化(feedback weaponization)