文章目录

  • 前言
  • 一、Unawareness
  • 二、individual fairness
  • 三、group fairness
    • 1. disparate impact
    • 2. predictive equality
    • 3. equal opportunity
    • 4. disparate mistreatment
    • 5. Predictive parity
  • 四、causal fairness
    • 1. proxy discrimination
    • 2. unresolved discrimination
    • 3. conterfectual fairness
  • 一些参考文献

前言

   机器学习系统中,如果模型的表现或模型的预测结果与敏感属性(性别、肤色等)有统计上的关联,那么这个机器学习系统就可能是不公平的:(1) Timbru等人发现一些商业的性别分类API中,白人的准确率明显高于有色人种;(2) Propublica等发现USA的犯罪预测系统COMPAS存在歧视黑人的现象,黑人的FPR高于白人。


一、Unawareness

   Unawareness也叫blindness,既然敏感属性和预测结果有关联,不把敏感属性作为分类器的输入,能获得一定程度的公平,这种公平建立在“看不见”的基础上。当敏感属性与预测结果统计独立时,满足disparate treatment:
P ( y ^ ∣ x ) = P ( y ^ ∣ x , z ) P(\hat{y}|x)=P(\hat{y}|x,z) P(y^​∣x)=P(y^​∣x,z)


二、individual fairness

   Dwork除了做差分隐私外,还提出了individual fairness的定义,与差分隐私定义类似,“相似的人应该被分类器相似地对待”, d d d为距离度量:
P ( Y ^ = y ∣ X ) ≈ P ( Y ^ = y ∣ X ′ ) , i f d ( X , X ′ ) ≈ 0 P(\hat{Y}=y|X)\approx P(\hat{Y}=y|X^{\prime}), \; if \; d(X,X^{\prime}) \approx0 P(Y^=y∣X)≈P(Y^=y∣X′),ifd(X,X′)≈0
   什么是相似,多相似才是相似,是后来的工作主要研究点。


三、group fairness

   相比于individual fairness相似性的难以描述,group fairness比较直白。group fairness考虑的场景是,样本依照敏感属性 Z Z Z分组, Y ∈ { − 1 , 1 } , Z ∈ { − 1 , 1 } Y\in \{-1,1\},Z\in \{-1,1\} Y∈{−1,1},Z∈{−1,1},预测结果 Y ^ = 1 \hat{Y}=1 Y^=1被认为是优势, Z = 1 Z=1 Z=1的组被认为是优势组别(容易被预测为 Y ^ = 1 \hat{Y}=1 Y^=1), Z = − 1 Z=-1 Z=−1的组别被认为是劣势组别。

1. disparate impact

   disparate impace(DI)是一个比值形式的定义,一般认为该值大于0.8,表示分类器是比较公平的。
D I = P ( Y ^ = 1 ∣ Z = − 1 ) P ( Y ^ = 1 ∣ Z = 1 ) ≥ 0.8 DI=\frac{P(\hat{Y}=1|Z=-1)}{P(\hat{Y}=1|Z=1)}\geq0.8 DI=P(Y^=1∣Z=1)P(Y^=1∣Z=−1)​≥0.8
除此之外,也有工作将二者的差值定义为demographic parity,若较小,则分类器比较公平。这个指标的缺陷是,强制满足该指标,会让 Z = − 1 Z=-1 Z=−1的群体预测为 Y ^ = 1 \hat{Y}=1 Y^=1的概率大致相同,但是可能存在有的群体本身 P ( Y ^ = 1 ) P(\hat{Y}=1) P(Y^=1)非常低,满足该指标是对 Z = 1 Z=1 Z=1的群体的歧视。
D P = ∣ P ( Y ^ = 1 ∣ Z = − 1 ) − P ( Y ^ = 1 ∣ Z = 1 ) ∣ DP = |P(\hat{Y}=1|Z=-1) - P(\hat{Y}=1|Z=1)| DP=∣P(Y^=1∣Z=−1)−P(Y^=1∣Z=1)∣

2. predictive equality

   如果分类器满足下式,则认为其满足predictive equality:
P ( Y ^ = 1 ∣ Y = − 1 , Z = − 1 ) = P ( Y ^ = 1 ∣ Y = − 1 , Z = 1 ) P(\hat{Y}=1|Y=-1, Z=-1) = P(\hat{Y}=1|Y = -1, Z=1) P(Y^=1∣Y=−1,Z=−1)=P(Y^=1∣Y=−1,Z=1)

3. equal opportunity

   如果分类器满足下式,则认为其满足equal opportunity:
P ( Y ^ = 1 ∣ Y = 1 , Z = − 1 ) = P ( Y ^ = 1 ∣ Y = 1 , Z = 1 ) P(\hat{Y}=1|Y=1, Z=-1) = P(\hat{Y}=1|Y = 1, Z=1) P(Y^=1∣Y=1,Z=−1)=P(Y^=1∣Y=1,Z=1)
除此之外,也有工作将predictive equality和equal opportunity相交定义equalized odds,equalized odds越大,分类器越不公平:
E O D = ∑ y ∈ { − 1 , 1 } ∣ P ( Y ^ = 1 ∣ Y = y , Z = − 1 ) − P ( Y ^ = 1 ∣ Y = y , Z = 1 ) ∣ , EOD = \sum_{y \in\{-1,1\}}|P(\hat{Y}=1|Y=y, Z=-1) - P(\hat{Y}=1|Y = y, Z=1)|, EOD=y∈{−1,1}∑​∣P(Y^=1∣Y=y,Z=−1)−P(Y^=1∣Y=y,Z=1)∣,

4. disparate mistreatment

   侧重于不同群体上错误率相同,包括相同的FPR、FNR等:
o v e r a l l m i s c l a s s i f i c a t i o n r a t e ( O M R ) : overall \;misclassification \;rate(OMR): overallmisclassificationrate(OMR):
P ( Y ^ ≠ Y ∣ Z = − 1 ) = P ( Y ^ ≠ Y ∣ Z = 1 ) P(\hat{Y}\neq Y|Z=-1)=P(\hat{Y}\neq Y|Z=1) P(Y^​=Y∣Z=−1)=P(Y^​=Y∣Z=1)
f a l s e p o s i t i v e r a t e ( F P R ) : false\;positive \;rate(FPR): falsepositiverate(FPR):
P ( Y ^ ≠ Y ∣ Y = − 1 , Z = − 1 ) = P ( Y ^ ≠ Y ∣ Y = − 1 , Z = 1 ) P(\hat{Y}\neq Y|Y=-1,Z=-1)=P(\hat{Y}\neq Y|Y=-1,Z=1) P(Y^​=Y∣Y=−1,Z=−1)=P(Y^​=Y∣Y=−1,Z=1)
f a l s e n e g t i v e r a t e ( F N R ) : false\;negtive\;rate(FNR): falsenegtiverate(FNR):
P ( Y ^ ≠ Y ∣ Y = 1 , Z = − 1 ) = P ( Y ^ ≠ Y ∣ Y = 1 , Z = 1 ) P(\hat{Y}\neq Y|Y=1,Z=-1)=P(\hat{Y}\neq Y|Y=1,Z=1) P(Y^​=Y∣Y=1,Z=−1)=P(Y^​=Y∣Y=1,Z=1)
f a l s e o m i s s i o n r a t e ( F O R ) : false\;omission\;rate(FOR): falseomissionrate(FOR):
P ( Y ^ ≠ Y ∣ Y ^ = − 1 , Z = − 1 ) = P ( Y ^ ≠ Y ∣ Y ^ = − 1 , Z = 1 ) P(\hat{Y}\neq Y|\hat{Y}=-1,Z=-1)=P(\hat{Y}\neq Y|\hat{Y}=-1,Z=1) P(Y^​=Y∣Y^=−1,Z=−1)=P(Y^​=Y∣Y^=−1,Z=1)
f a l s e d i s c o v e r y r a t e ( F D R ) : false\;discovery\;rate(FDR): falsediscoveryrate(FDR):
P ( Y ^ ≠ Y ∣ Y ^ = 1 , Z = − 1 ) = P ( Y ^ ≠ Y ∣ Y ^ = 1 , Z = 1 ) P(\hat{Y}\neq Y|\hat{Y}=1,Z=-1)=P(\hat{Y}\neq Y|\hat{Y}=1,Z=1) P(Y^​=Y∣Y^=1,Z=−1)=P(Y^​=Y∣Y^=1,Z=1)

5. Predictive parity

  不同组拥有相同的Positive Predictive Value(真阳率):
P ( Y = 1 ∣ Y ^ = 1 , Z = − 1 ) = P ( Y = 1 ∣ Y ^ = 1 , Z = 1 ) P(Y=1|\hat{Y}=1,Z=-1)=P(Y=1|\hat{Y}=1,Z=1) P(Y=1∣Y^=1,Z=−1)=P(Y=1∣Y^=1,Z=1)


四、causal fairness

1. proxy discrimination

  

2. unresolved discrimination

3. conterfectual fairness

  直接干预A的不足: 直接干预A,求取的是在A中的平均效应。如果群体中一半人被“正向”歧视,一半人被反向歧视,直接干预A不能发现这个问题
P ( Y ^ = 1 ∣ d o ( A = a ) ) = P ( Y ^ = 1 ∣ d o ( A = a ′ ) ) P(\hat{Y}=1|do(A=a))=P(\hat{Y}=1|do(A=a^{\prime})) P(Y^=1∣do(A=a))=P(Y^=1∣do(A=a′))
因而有人提出反事实公平性,反事实的直观表达是,在某件事情已经发生的情况下,假如当时XXX,这件事情还会是这个结果吗?例如下面的例子,来自《Causal Inference in Statistics:A Primer》,摘自知乎用户望止洋。先通过事实计算出模型的参数,接着强制干预,计算出反事实。


反事实公平性:
P ( Y ^ z = y ∣ X = x ) = P ( Y ^ z ′ = y ∣ X = x ) ∀ y , z , z ′ P(\hat{Y}_z=y|X=x)=P(\hat{Y}_{z^{\prime}}=y|X=x) \;\; \forall y,z,z^{\prime} P(Y^z​=y∣X=x)=P(Y^z′​=y∣X=x)∀y,z,z′
反事实公平性的直观上理解,比如同一个人,只改变一下性别,看看分类器的输出结果有没有改变很多,若改变了很多,则不满足反事实公平性


一些参考文献

[1] Fairness-Aware Machine Learning——An Extensive Overview, Jannik Dunkelau and Michael Leuschel
[2] Joon Sik Kim, Jiahao Chen, Ameet Talwalkar: FACT: A Diagnostic for Group Fairness Trade-offs. ICML 2020: 5264-5274
[3] Niki Kilbertus, Mateo Rojas-Carulla, Giambattista Parascandolo, Moritz Hardt, Dominik Janzing, Bernhard Schölkopf: Avoiding Discrimination through Causal Reasoning. NIPS 2017: 656-666


  (未完待续&期待大佬们指出错误)

机器学习公平性指标小结相关推荐

  1. 机器学习经典书籍小结

    机器学习经典书籍小结 转载本博客请注明链接:http://blog.csdn.net/xinzhangyanxiang/article/details/9069045 博客第一篇文章[1]是转载的,也 ...

  2. 机器学习AUC指标的理解

    机器学习AUC指标的理解 AUC在机器学习领域中是一种模型评估指标,是指模型ROC曲线下的面积.分类器效果月AUC值成正比.即当分类器的分类效果越好的时候,ROC曲线下面积越大,AUC越大. 其中,R ...

  3. 机器学习评测指标概述

    机器学习评测指标概述 文章目录 机器学习评测指标概述 1. 基本分类 1.1 样本类别 1.2 置信度阈值 1.3 IoU阈值 2. 基本指标 recall precison accuracy 3.进 ...

  4. 机器学习分类指标:精确率、准确率、召回率详解

    混淆矩阵 在介绍具体的定义之前先了解一些混淆矩阵(confusion matrix): 一种 NxN 表格,用于总结分类模型的预测效果:即标签和模型预测的分类之间的关联.在混淆矩阵中,一个轴表示模型预 ...

  5. 机器学习篇-指标:AUC

    AUC是什么东西? AUC是一个模型评价指标,只能够用于二分类模型的评价,对于二分类模型来说还有很多其他的评价指标: 比如:logloss,accuracy,precision 在上述的评价指标当中, ...

  6. 机器学习评估指标汇总:准确率(Precision)、召回率(Recall)、F值(F-Measure)、ROC曲线、PR曲线

    摘要: 数据挖掘.机器学习和推荐系统中的评测指标-准确率(Precision).召回率(Recall).F值(F-Measure)简介. 引言: 在机器学习.数据挖掘.推荐系统完成建模之后,需要对模型 ...

  7. python机器学习评估指标

    介绍 不仅在机器学习中,而且在一般生活中,尤其是商业生活中,您都会听到诸如"您的产品有多准确?"之类的问题.或"你的机器有多精确?".当人们收到诸如" ...

  8. 学点基本功:机器学习常用损失函数小结

    (图片付费下载自视觉中国) 作者 | 王桂波 转载自知乎用户王桂波 [导读]机器学习中的监督学习本质上是给定一系列训练样本  ,尝试学习  的映射关系,使得给定一个 ,即便这个不在训练样本中,也能够得 ...

  9. 机器学习常用损失函数小结

    作者:王桂波 转载自:https://zhuanlan.zhihu.com/p/77686118 整理:HealthAI 上一篇文章我们看到了目标函数,损失函数,和代价函数的区别.在该部分我们来看一看 ...

最新文章

  1. HTML的标签描述1
  2. 【网上收藏】取得网卡mac
  3. SAP Commerce Cloud Spartacus UI 的 ActionClass 数据结构设计
  4. 基于SQLite+EF6实现一套自己的Key-Value存储管理工具包(1)
  5. LeetCode 5. 最长回文子串
  6. Android开发笔记(六十八)工程库打包
  7. c java python小白_Java,python,c语言小白的理解
  8. tomcat 域名配置、中文域名、别名配置
  9. 针对Android智能电视研发的,基于Android的智能电视遥控系统研制
  10. HDU 1730 Northcott Game
  11. 文件搜索工具Listary中文版快速上手使用教程
  12. C#——已知两点及半径,求圆心坐标
  13. 【推荐软件】艾奇卡拉OK歌词字幕制作软件
  14. html5 JavaScript 邮箱地址验证
  15. MFC获取主机IP地址
  16. 虚拟屏幕与云计算————微软亚洲研究院
  17. debian7配置apache+mysql+php
  18. ajax调用远程webservice,ajax跨域请求调用webservice接口
  19. java 世界协调时间格式_Java核心教程之常见时间日期的处理方法
  20. python写word下标_python实现在windows下操作word的方法

热门文章

  1. 石器时代单机修改服务器名,修改部分石器时代服务器和部分文件所在路径
  2. 视图(view)|数据库
  3. 【论文阅读】【三维目标检测】Object as Hotspots: An Anchor-Free 3D Object Detection Approach via Firing of Hotspots
  4. 华数机器人码垛_码垛机器人操作界面与离线编程操作图解教程
  5. 【报告分享】中国5G垂直行业应用案例2021-GSMA+信通院-202102.pdf(附下载地址)
  6. 小米3怎么开通上海地铁刷卡功能
  7. 什么是BADI,如何从SAP中查找BADI?
  8. Win10(Win7)设置固定IP地址
  9. Oracle中文的排序方式
  10. hibernate 和 jpa简介