导图社区 人工智能数据安全风险(详版)
从人工智能自身、应用及所面对的数据安全治理挑战三个方面所面临的数据安全风险进行梳理。
"数据出境合规指南:从顶层设计到地方实践,一文掌握关键要点!我国已构建以《个人信息保护法》《数据安全法》《网络安全法》为核心的数据跨境监管体系,配套出台《数据出境安全评估办法》《标准合同办法》等实施细则。自贸试验区积极探索差异化路径,如上海临港发布智能网联汽车数据清单,天津、北京推出负面清单管理模式。企业需关注申报规则、风险自评估及备案要求,福建省等地已出台标准合同备案具体流程。配套模板工具(如评估报告范本、承诺书模板)为实操提供有力支撑。"
这是一篇关于数据出境 安全相关政策的思维导图,主要内容包括:1.上位法、行政法;2、部委规章;3、地方规章
网络安全保险相关政策、标准、研究、及已备案的网络安全保险215款产品和涉及的21家保险公司。
社区模板帮助中心,点此进入>>
互联网9大思维
安全教育的重要性
组织架构-单商户商城webAPP 思维导图。
个人日常活动安排思维导图
域控上线
西游记主要人物性格分析
17种头脑风暴法
python思维导图
css
CSS
人工智能数据安全风险
人工智能自身面临的数据安全风险
训练数据污染
攻击结果
可导致人工智能决策错误
攻击方式
采用模型偏斜方式
攻击目标
训练数据样本
通过污染训练数据达到改变分类器分类边界的目的
例如:模型偏斜污染训练数据可欺骗分类器将特定的恶意二进制文件标记为良性
采用反馈误导方式
学习模型本身
利用模型的用户反馈机制发起攻击,直接向模型“注入”伪装的数据或信息,误导人工智能做出错误判断
得从训练样本环节发动网络攻击成为最直接有效的方法,潜在危害巨大
运行数据异常
可导致智能系统运行错误
人为构造对抗样本攻击
导致智能系统产生错误的决策结果
人工智能算法模型主要反映了数据关联性和特征统计,而没有真正获取数据因果关系
对抗样本攻击可实现逃避检测
对抗样本攻击可欺骗基于人工智能技术的身份鉴别、活体检测系统。
动态环境的非常规输入
人工智能决策严重依赖训练数据特征分布性和完备性,人工标记数据覆盖不全、训练数据与测试数据同质化等原因常常导致人工智能算法泛化能力差,智能系统在动态环境实际使用中决策可能出现错误
系统运行错误可能不同严重的事故,如自动驾驶汽车,可能导致致命交通事故
数据逆向还原
开源框架风险
人工智能应用导致的数据安全风险
数据采集过度
数据偏见歧视
数据资源滥用
社会消费领域
可带来差异化定价
恶意欺诈或误导性宣传
导致消费者的知情权、公平交易权等权利受损
信息传播领域
导致社会不同群体的认知鸿沟拉大
个人意志的自由选择受到影响
甚至威胁到社会稳定和国家安全
基于人工智能技术的数据分析与滥用,给数字社会治理和国家安全等带来严峻安全挑战
数据智能窃取
可用来自动锁定目标
进行数据勒索攻击
通过对特征库学习自动查找系统漏洞和识别关键目标,提高攻击效率。
是自动生成大量虚假威胁情报
对分析系统实施攻击
通过机器学习、数据挖掘、自然语言处理等技术,自动生成虚假威胁情报,混淆判断
自动识别图像验证码
人工智能技术已实现对验证码的有效破解
数据深度伪造
降低生物特征识别技术可信度
提升网络攻击能力
造成人际间的信任危机
威胁伦理和社会安全
通过制作虚假新闻影响政治舆论
威胁国家安全
人工智能应用加剧的数据治理挑战
数据权属问题
个人层面
数据权属体现为公民的数据权利,个人隐私保护面临挑战。
行业层面
数据权属体现为企业的数据产权,数据垄断损害行业整体发展
数据违规跨境
数据作为国家基础性战略资源的地位更加突出
科技企业通过向消费者提供特定领域免费应用、使用政府公开数据以及进行产业上下游数据协同等方式获取尽可能多数据
在全球范围内进行数据收集,强化数据资源优势,推进自身人工智能 发展,加剧数据违规跨境流动风险。