导图社区 人工智能中的算法歧视问题及其审查标准
机器学习公平性研究,根源是人类固有的社会偏见的反映,经由人工智能背后的算法技术"转译",一起来看人工智能中的算法歧视问题及其审查标准。
A Survey on Bias and Fairness in Machine Learning 机器学习中公平性和偏见的研究综述
网络空间安全中Web安全方向的实例,主要为服务器的安全,如防范IP、域名、SQL数据记录、XXS等信息的泄露或攻击
现代密码学的相关知识,内容有流密码、分组密码体制、公钥密码、密钥分配与密钥管理、网络加密与认证、可证明安全、密码协议、数字签名和认证协议、消息认证和哈希函数。
社区模板帮助中心,点此进入>>
互联网9大思维
组织架构-单商户商城webAPP 思维导图。
域控上线
python思维导图
css
CSS
计算机操作系统思维导图
计算机组成原理
IMX6UL(A7)
考试学情分析系统
人工智能中的"算法歧视"问题及其审查标准
摘要
算法歧视
根源是人类固有的社会偏见的反映
经由人工智能背后的算法技术"转译"
特点
难以预测
难以监管
责任主体多元化
独特属性
内部成因
外部成因
解决方法
基于禁止歧视或平等保护之目的
建立对人工智能算法的伦理审查标准体系
"算法歧视"的内涵与特征
何为"算法歧视"
人类固有的刻板印象
经过人工智能背后的算法技术"转译"
所形成的歧视
"算法歧视"与一般歧视的不同
算法歧视的难以预测性
基于海量数据的来源
作出符合个人选择的决策
人工智能所考量元素的多元化
与人工智能之间的交互
并非以人类惯有的交往逻辑展开
算法歧视的监管难度大
人工智能技术需要以专业的算法语言编写
计算机技术与网络技术安全保障的难度极大
歧视责任主体多元化
编写者不应承担全部责任
与所获得的信息有关
来源于输入端的错误信息
所获取的误导信息
系统在完善自我进行机器学习时
都有特定作用
设计者
数据提供者
使用者
"算法歧视"的成因与分类
基于外部原因
人类生物性认识
文化的外部性影响
基于内部原因
并非基于人的主观偏见
算法技术本身的局限性
算法技术的不成熟
经编译后成了具有歧视的表达
规制"算法歧视"的法理基础
歧视的落脚点
在于不合理的差别对待
并非所有差别对待都是歧视
禁止未成年人工作
并非歧视
基于对未成年人保护
平等保护体现为消极与积极的二元性
国家既要积极地保障公民的基本权利
又要禁止作出公民受到不平等的对待
对算法的规制
回归对技术的约束
非对其适用的制约
规制"算法歧视"的立法构想———将歧视审查嵌入技术标准
运用范畴论寻找“潜在”的受歧视群体
借助差别性影响标准确定是否构成歧视
结论及启示
对算法技术予以审查
可归为对人工智能技术的伦理审查
研发的标准中形成相应的伦理标准是必不可少
人工智能模拟水准的重要标准
人工智能在面对伦理问题时的表现
应注重对算法歧视问题的识别与解决