关于AI歧视我们也聊了很多,比如相貌偏见、语言歧视等,但AI的歧视显然不仅只在这一个浅显的领域。在其相貌和语言歧视的背后,矗立的其实是AI对这个社会全方位的片面判断。

那么,AI的歧视问题也就不是一个简单的算法问题了。今天我们就再聊一聊AI的偏见问题,以及面对它,我们究竟能做些什么。

始作俑者的人类本身:AI歧视产生的根源

首先我们需要清楚的是,发生AI歧视这种事情的原因在哪里。目前来看,大体上有两个个方面。

1. 数据和算法的限制。

首先是数据的限制。AI对事物作出的判断不是凭空或者随机而得的,它必须要经过一些列的训练学习才可以。那么,如果要训练它在某方面的能力,就要将相关领域的数据搜集起来供其学习。在这一方面,如果数据训练量不足,那么就会造成AI学习的不完备,其也就可能作出错误的判断。

而数据限制的另一方面则来自数据本身。比如某个群体会有一些共性的特征,那么AI将会把这些大多数的共性特征数据作为标签来用。一旦对象不在这个群体特征里,或属于这个群体的少数特征,其就有可能采取否定的态度。

其次则是算法的限制。程序员在设置AI学习程序的时候,无法做到过滤到每一条消极的信息。因此,AI在经过大量的数据学习之后,其会自动匹配不同群体之间的关键词,然后做出判断。比如职业的男女分化问题。

事实上,目前我们面临的所有AI的歧视问题基本上是围绕着这两个方面展开的。数据学习不够多,或者数据学习够多之后,其学习范围超出了程序员设定的内容,然后开始进行自我学习和判断。这就造成了歧视行为的发生。

2. 人类固有偏见的强化。

但AI的歧视问题的根源并不在于数据和算法。在一定程度上,AI的歧视实际上是人类偏见的一种显现和强化。人类是善于进行言语上的克制的,或者表现出在沟通交流中的表面客套。长此以往,人们似乎把隐藏自己对别人的偏见当成了一种有素质的美德。问题变成了你心里歧视与否不重要,面上做得好,你就是一个好人。

在这方面,做慈善的被曝丑闻后对比尤其突出。

而AI出现的意义之一就是打破了人们维持表面友好的自我欺骗的情况,它把那些被人们刻意隐藏的,并且似乎被隐藏得很好的东西重新抖搂了出来。这就是显现,那么为什么说会得到强化呢?

首先,AI学习就是一个排除的过程,比如对图像语义分割,它要找到眼球,就必须要先进行图像的分割,否定其他不适眼球的东西。同理,要招到一个合适的员工,它也是重点去排除不合适的选项。否定的过程,就是一个强化的过程。

其次,是基于AI的特殊属性。AI是有史以来第一个人造的、有自己的判断能力的事物,当它出现一些违背人类维持表面友好而设定的一些规则的时候,人们一方面感到惊异,另一方面则会由此而进一步看清自己。它毫不留情地折了人类的面子,自然换来了更大的关注。

算法的限制和对人类固有观念的强化,大抵可以说明了AI歧视横行的原因所在。

AI歧视不仅类别多,影响可能还很大

如果我们仅仅是被AI歧视了,并且知道它的歧视是算法和人类本身问题所致,那也就无需担心。毕竟,歧视无处不在,心理足够强大,任何歧视都够不成火力伤害。论不要脸的自黑精神,似乎没谁能比得过现代人。

但是,当AI不仅仅是歧视你,还要对你做出判断,决定你的人生、工作、地位……的时候,你还能对它的歧视坐视不管吗?

比如现在非常流行一个概念,用AI来进行招聘。

在理论上来讲,它能够通过学习既有的员工资料来筛选最符合公司需求的新人。对这些员工进行标签分类是学习的一环,能力强、口才好、实习经验丰富等可能会被筛选出来,但是,万一在这些样本中,AI找到了其他具有高度相同但和招聘又无关的标签了呢?

比如这些人可能男生多一点,它可能会认为女生不适合这项工作;如果城市户口的人多一点,来自农村的就有可能被筛掉;如果23岁以前的人多一点的话,那23岁以后的人就可能被认为不适合……

你看,仅仅就是这几个方面,就已经涉及到性别歧视、地域歧视、年龄歧视了。虽然人们开发AI进行招聘是为了避免面试官会凭主观印象决定去留,但太过于客观的AI招聘同样也会引发一些值得考虑的问题。

再比如把AI布置在警务工作当中。

最近一段时间提到最多的就是利用AI帮助识别甚至是预测罪犯。比如去年上海交大的一篇论文中提出,可以通过人的样貌进行分析,来判断此人是否有犯罪的倾向。简单来说,就是看你是不是长了一张“犯人脸”。而美国的警察也在最近试图部署一套警务系统,来预测犯罪发生的人员相关、地理区域等,然后来针对性加强监控。英国来采用过类似的方法来预防犯罪。

这其中自然存在着严重的问题。看“人脸”就能辨罪犯?虽然相貌歧视确实一直存在,但基本上都是基于五官的缺陷。现在居然升级了。美国的预测犯罪往往会把黑人和黑人集中区域当做重点预测对象,这是很难令人接受的。尤其是美国这样一个对黑人歧视非常忌讳的国家,AI即便不是个人,这一举动也会招致人们的讨厌。英国就更不用说了,他们的这个监视系统运行了一段时间之后,穷人被特别针对了,因此最终不得不紧急下线。

从这几个案例当中,我们发现,AI还存在着相貌歧视、种族歧视、贫富歧视。除此之外,AI的歧视还深度存在于各行各业当中,甚至未来的一天我们可能真的会像《黑镜》当中一样戴一个隐形眼镜,然后就可以看到眼镜对面来人的安全度识别。高安全度也不一定真的安全,很有可能是刷出来的呢?

也就是说,AI的歧视是一个综合性的东西。问题又来了:难道因此我们就要将AI废弃吗?我们人类就那么玻璃心吗?

当然,弃用AI不现实,这是一个因噎废食的行为。它毕竟还在深刻地改变着我们的这个社会。但是,随着AI的大规模应用,努力减轻甚至是消除AI的偏见,也已经显得迫在眉睫。

AI歧视的解决之道

谷歌的一款数据库被人们发现有存在着明显的性别歧视。比如一个简单的问答,巴黎:法国,那么东京:X,系统就会给出X=日本。如果是“父亲:医生”,其则将会对应“母亲:护士”;“男人:程序员”,“女人:家庭主妇”,诸如此类。

研究者们创建了一种“硬性纠错”的方法。简单来讲,就是把系统判断出的对应关系放到一个论坛平台上去发布并询问是否合适。如果有一半的人认为不合适,那么这个类比就不恰当。这种方式进行了一段时间之后,对AI进行单词搭配的改善效果是非常显著的。

这个方法虽然有效,但是明显看出它只能适用于一些数据范围较小的方面。比如某一家公司的招聘,可以在招聘之前对AI进行训练,然后找出问题,再用这种方法进行硬性纠错。但是如果要用它来解决AI所有的问题,却有点不现实。

哥伦比亚大学的研究者们则开发出了另外一种方式。深度学习研究的进步是AI复活的一个重要因素,但是AI的黑箱问题仍然没有解决。因此,这些研究者们就试图用打开黑箱的方式去弄明白为什么AI会做出一些错误的决定。他们开发出了一个能在神经网络中通过欺骗系统从而使其暴露自身缺陷的软件,名叫“DeepX plore”。这个软件能够激活系统中几乎百分之百的神经元,从而让整个神经网络去扫描错误。

也有其他的人建议从编程上去解决问题。但是从根本上来说,人类应该把AI的歧视当做一面镜子,仔细审视自己在社会活动中种下的祸根。由此,不断减少自己实际意义上的歧视和偏见。只有学习的内容消失了,AI才可能避免产生歧视的问题。

但是我们仍然要注意的一个问题是,用“偏见”和“歧视”去概括AI所有的“区别对待”是不合适的。人类发展到现在,不同职业对人有不同的要求,男人耕田女人织布反映的其实是历史经过长期发展后的自然分工。那么,在处理AI歧视问题的时候就不是一个简单的算法纠正了,它还涉及到社会学、经济学等各个方面的问题。

这样来看,解决AI的歧视和偏见,我们可能仍然有很长的路要走。目前能做的就是,生杀大权这件事儿,还是交给人类自己吧。

转载于:https://www.cnblogs.com/guanghuan33/p/9181444.html

为何AI也学会了种族和性别歧视?相关推荐

  1. 人工智能逆天:竟已学会种族和性别歧视

    英国媒体<卫报>今日发表评论文章指出,人工智能已经开始出现了种族和性别偏见,但是这种偏见并非来自机器本身,而是计算机在学习人类语言时吸收了人类文化中根深蒂固的观念.科学家呼吁,应当建立一个 ...

  2. 太不可思议了,AI竟然学会了重男轻女

    全球电商龙头亚马逊公司,原本有一套秘密的招聘分析引擎,据知情人士透露,该团队自2014年以来一直在建立计算机程序,以审查求职者的简历,目的是机械化寻找顶尖人才.后来团队发现负责分析履历的AI(人工智能 ...

  3. 尖端AI学术会议NIPS改名风波:拒绝性别歧视

    文章来源:ATYUN AI平台 在AI和机器学习领域最重要的会议之一:神经信息处理系统大会(NIPS)目前正在考虑更改其名称,部分原因是首字母缩略词的内涵具有性别歧视意味,主要针对英语使用者.在几次公 ...

  4. AI涉嫌“性别歧视”,中美科技巨头面临男女平等问题

    在硅谷,由于互联网发展迅猛,科技公司收到的求职简历越来越多.据统计,光谷歌一家每年收到的简历就超过100万份. 面对海量的求职者简历,不少科技公司都开始用机器筛选替代HR人工筛选.其中,亚马逊就曾利用 ...

  5. 亚马逊AI被曝性别歧视?人事部门却在悄悄给女性“开绿灯”

    硅谷Live / 实地探访 / 热点探秘 / 深度探讨 你知道Google每年收到多少求职者的简历吗?据JobVine统计,超过100万份. 其他大公司也无外乎于此,而这毫无疑问对于HR来讲是巨大的负 ...

  6. 周星驰的睡梦罗汉拳心法,现在AI也学会了:梦中“修炼”,醒来“实战”

    夏乙 发自 凹非寺 量子位 出品 | 公众号 QbitAI 听说过"睡梦罗汉拳"么? 电影<武状元苏乞儿>中,周星驰在梦中得到老乞丐心法传授,学会了睡梦罗汉拳. 只是睡 ...

  7. Redis作者Antirez经历的「性别歧视」风波

    本篇文章是2012年Redis作者发表的关于性别歧视的博客,文章推出后,引来了轩然大波,骂声一片.这可能是antirez在互联网上经历的最黑暗的一段时间了.这里我将他的博文翻译出来分享给大家一起观察作 ...

  8. 外科医生就是男性?算法为何也有性别歧视

    全文共2655字,预计学习时长5分钟 先试着猜猜下面的谜语吧: 一对父子在外开车时遭遇了一场可怕的意外.父亲当场去世,儿子也性命堪忧,被立即送往医院,准备进行手术.外科医生走进手术室,看见病人后大叫: ...

  9. 前Pinterest首席运营官起诉性别歧视

    Pinterest's former COO, Françoise Brougher, is suing the company for gender discrimination, saying s ...

  10. 合租限女生是性别歧视吗? | Alfred数据室

    小A是一名大四毕业生,在经历了疫情停课.找工作.写论文.云毕业之后,他终于毕业了.像很多刚踏入社会的毕业生一样,小A首先面临到的问题便是租房.他的预算并不高,打算通过合租的方式找到自己在大城市的落脚之 ...

最新文章

  1. 计算机二级2021辅导书,2021该如何准备计算机二级考试?
  2. 解决appium安装app时某些手机弹出的提示框
  3. Docker Nexus3 maven 私服(搭建篇)
  4. ES6-symbol-使用symbol
  5. 初试SpringStateMachine框架实现状态机
  6. java中几种Map在什么情况下使用,并简单介绍原因及原理
  7. 使用GDB进行嵌入式远程调试
  8. html5设置谷歌浏览器兼容性,谷歌浏览器如何设置兼容性视图_谷歌浏览器设置兼容性视图的方法-系统城...
  9. 电影《Green book》观后感_已补全:携带着种族歧视的“光环”,艰难地获得朋友的相互依赖,依然得享受生活的酸甜苦咸。...
  10. 一个对于三只松鼠视觉稿的分析
  11. 常用邮箱POP3和SMTP服务器
  12. 程序设计-求解数独(C)
  13. 最全的厚黑学…教你怎样混社会
  14. JavaFXGL框架笔记
  15. 大众 mib android auto,【图】加入互联基因 体验大众第二代MIB多媒体_汽车之家
  16. 尾递归优化 - 尾递归优化
  17. 奇虎360校园招聘2015笔试题目
  18. 计算机科学家书法,把书法和菜名结合,AI 模型创作独特的中国书法艺术
  19. WordPress Blog Android客户端源码分析(一)
  20. 数据可视化之象形标识图,简约百变的数据视觉展现形式

热门文章

  1. 为什么我们需要Pulsar?
  2. 云计算对IT产业的影响
  3. 网络博客营销之博客设置和优化
  4. 编译原理:有穷自动机(DFA与NFA)
  5. Linux重启nfs出现没有权限,Linux NFS搭建与错误提示解决
  6. docker 厂商 容器_我终于不用再解释Docker了!
  7. 力扣-1232 缀点成线
  8. Harmony OS — Text文本框
  9. Flutter TextField设置默认值默认值和光标位置
  10. Flutter进阶第4篇: 实现简单的新闻系统渲染新闻详情数据以及用flutter_html解析html