导图社区 人工智能:机器歧视及应对之策
对于机器学习的公平性开展的研究,并聚焦在歧视问题上,内容有人工智能迎来发展浪潮、人工智能决策日益流行、机器歧视/偏见(Machine Bias)不容忽视、人工智能决策三大问题、构建技术公平规则,通过设计实现公平(Fairness by Design)。
A Survey on Bias and Fairness in Machine Learning 机器学习中公平性和偏见的研究综述
网络空间安全中Web安全方向的实例,主要为服务器的安全,如防范IP、域名、SQL数据记录、XXS等信息的泄露或攻击
现代密码学的相关知识,内容有流密码、分组密码体制、公钥密码、密钥分配与密钥管理、网络加密与认证、可证明安全、密码协议、数字签名和认证协议、消息认证和哈希函数。
社区模板帮助中心,点此进入>>
互联网9大思维
安全教育的重要性
组织架构-单商户商城webAPP 思维导图。
个人日常活动安排思维导图
域控上线
西游记主要人物性格分析
17种头脑风暴法
python思维导图
css
CSS
人工智能:机器歧视及应对之策
引言
干涉和影响人们的现实生活
算法
大数据
人工智能
将我们在网络世界中的
各种足迹和活动
上网习惯
购物记录
GPS位置数据
转变为对我们的评分和各种预测
我们
在网络中的存在
日益受到算法左右
日益生活在一个打分社会
信用评分
犯罪风险评分
忽视了其中的算法和机器歧视问题
自动化决策系统
应用
教育、就业、信用、贷款
保险、广告、医疗、治安
刑事司法程序
导致
算法和机器歧视问题变得日益突出
算法和数学不一定有客观性
编程人员的主观判断和选择
规则的代码化
不透明
不准确
不公平
无法审查
是否可以外包给技术
道德
伦理
法律
如何实现并保障自动化决策的公平性
人工智能迎来发展浪潮
2010 年以来
人工智能迎来新一轮发展浪潮
相关创业、投资和并购显著加强
2016年10月
国家人工智能战略
美国《美国国家人工智能研发战略计划》
英国《机器人学与人工智能》
人工智能决策日益流行
决定
人们看到什么新闻
收到什么广告
听到什么歌曲
左右
人们的网络存在(数字存在)
人工智能决策
购物推荐
精准广告
信用评估
犯罪风险评估
不容忽视的问题
决策工作委托给人工智能
机器能否做到不偏不倚?
如何确保公平之实现?
机器歧视/偏见(Machine Bias)不容忽视
谷歌图片软件
曾错将黑人标记为"大猩猩"
Flickr自动标记系统
错将黑人照片标记为"猿猴"
微软AI聊天机器人Tay
被"教坏"
谷歌算法歧视
黑人名字更易出现暗示犯罪历史的广告
男性比女性看到更多高薪招聘广告
亚马逊
隐瞒了其自己及合作伙伴的商品的运费
犯罪风险评估算法COMPAS
白人多被评估为低犯罪风险
黑人被评估为高犯罪风险
预测未来犯罪方面非常不可靠
对少数民族的歧视
识别姓氏为假的概率很高
人工智能决策三大问题:公平、透明性和可责性
算法默认(by default)是公平(Fairness)的吗?
误解
算法决策倾向于公平
原因
数学关乎方程
而非肤色
数学清洗
对数据的崇拜
将人类社会事物
利用数学
务量化
客观化
需问题回答
公平可以量化、形式化吗?
可以被翻译成操作性的算法吗?
公平被量化为计算问题会带来风险吗?
谁来决定AI的公平的考量因素?
如何让AI具有公平理念,自主意识到歧视?
作为"黑箱"(Blackbox)的算法的透明化(Transparency)困境
算法不透明性
三种形式的不透明性
因商业或国家秘密产生的不透明性
因技术文盲产生的不透明性
从算法的特征及测量中产生的不透明性
如何向算法问责(Accountability)?
需解决问题
人们需要审查什么?
如何判断算法是否遵守既有的法律政策?
在缺乏透明性的情况下,如何对算法进行审查?
构建技术公平规则,通过设计实现公平(Fairness by Design)
政府层面
美国白宫报告
列入国家人工智能战略
建议从业者接受伦理培训
英国科学技术委员会
呼吁成立专门人工智能委员会
行业层面
谷歌
提出"机会平等"(Equality of Opportunity)概念
Matthew Joseph
引入"歧视指数"(Discrimination Index)概念