导图社区 算法歧视的伦理反思
机器学习公平性研究,数据中预先存在的偏见所导致的算法歧视,算法决策中数据的抽样偏差及权重不同导致算法歧视。
A Survey on Bias and Fairness in Machine Learning 机器学习中公平性和偏见的研究综述
网络空间安全中Web安全方向的实例,主要为服务器的安全,如防范IP、域名、SQL数据记录、XXS等信息的泄露或攻击
现代密码学的相关知识,内容有流密码、分组密码体制、公钥密码、密钥分配与密钥管理、网络加密与认证、可证明安全、密码协议、数字签名和认证协议、消息认证和哈希函数。
社区模板帮助中心,点此进入>>
互联网9大思维
组织架构-单商户商城webAPP 思维导图。
域控上线
python思维导图
css
CSS
计算机操作系统思维导图
计算机组成原理
IMX6UL(A7)
考试学情分析系统
算法歧视的伦理反思
摘要
法歧视的伦理问题
算法公平
算法身份污名化
算法隐私
原因
数据中预先存在的偏见所导致的算法歧视
使用算法本身可能是一种歧视
算法决策中数据的抽样偏差及权重不同导致算法歧视
规避算法歧视
技术进路
哲学进路
法治进路
关键词
算法歧视
算法歧视及其产生
表现形式
显性歧视
对受保护群体相关因素的直接依赖
算法使用种族等特性,作为决策的因素之一
特点
主观歧视意图(即意志的意图)较为明显
隐性歧视
嵌入软件指令中的偏见
有偏差的数据集和工具使用
有目的地选择
训练数据
标签
特征
歧视意图隐藏的更深
差别性影响
仅具有差别性影响的特征
算法未使用受保护群体的特征,但决策结果仍倾斜于少数群体
形式上的中立性与实践上歧视性
类别
依据算法歧视是否关涉身份权
指对于某种身份存在偏见
关涉身份权的算法歧视
宗教
民族、种族
性别
无涉身份权的算法歧视
大数据杀熟
价格歧视
何以产生
有偏见的训练数据以反馈循环的方式导致
使用算法本身就可能是一种歧视
输入数据的抽样偏差与权重设置较差导致
算法歧视关涉的伦理问题
公平:个体公平与群组公平
两个问题
公平是否可以量化、形式化?
如果可被量化,选择何种公平理论是恰当的?
对于第一个问题
答案是肯定的
从当前研究成果看
防止歧视的数据挖掘和算法公平成为新研究范式
针对第二个问题
公平量化形式
群组公平(group fairness)
被称为
统计奇偶性(statistical parity)
接受正分类或负分类的人的比例与整个人口统计是相同的
旨在平等地对待所有群体
要求决策结果比例相等
受保护群体
非受保护群体
个体公平(individual fairness)
平等地对待相似的个体
测量在特定任务中个体之间的相似度
防止个体被歧视
由于从属于某一群体成员
身份的污名化
两方面
算法歧视关涉个体被赋予何种算法身份
个体会产生双重累积劣势
一旦贴上易被歧视的标签
算法歧视伦理问题的解决进路
主要集中
专业技术人员的技术研发
防止算法歧视
实现算法公平
主要包括
"事前"
数据预处理
算法设计
"事后"
事后监督
事后审计
论证
某种"公平"理论
合理性
局限性
实现的可能性
在法律上规制数据源及透明性等算法
主要挑战
如何从法律上确定算法歧视的标准
结语
国外算法歧视的研究
对中国学者具有启发性
认知算法歧视
可能的解决路径
中国研究相对薄弱
政策与法规层面对算法歧视与算法公平的忽视
在行业与技术层面,我国对算法公平的研究还需加强
科技人员伦理意识的培养