随着人工智能技术的普及,我们似乎开始“无条件”相信计算机算法所提供的结果,然而有些问题是不可忽略的。除了对就业产生的影响,由于人工智能往往基于人类提供的样本数据进行学习,并且“来者不拒”,包括人类的“负能量”,因此,人工智能极有可能和小孩一样学坏,在价值取向上出现扭曲。人类在学习过程中可能出现的任何一种认知偏差都有可能在人工智能系统的学习过程中出现。

这样的事件已经在不断发生,比如不久前Google公司的图像识别程序将几个黑人的面孔标记为大猩猩;LinkedIn的一个招聘广告计划显示偏好是男性;而名为Tay的Microsoft聊天机器人,仅仅在Twitter学习了一天,就开始出现了反犹太人的信息。

人工智能正在成为“种族主义者”

人工智能在“价值观”上的这种偏差,给社会带来的影响将是巨大的。

去年五月,就有一则报道称美国法院用于犯罪风险评估的计算机程序对黑人罪犯存有偏见。根据调查新闻组织ProPublica的说法,在COMPAS(惩教罪犯管理分析替代制裁)的项目中,关于判断嫌疑人是否是累犯的问题,算法给出的黑人风险值(45%)几乎是白人风险值的两倍(24%),所以会更容易将黑人定为再犯嫌疑人。

与COMPAS类似的很多项目还在全美数百个法院中应用,而这无疑将影响法官和其他官员的判决。我们似乎看到,由于存在种族歧视而被诟病的美国司法制度,已经开始寻求技术的帮助来改变这样的局面,但最终却发现算法本身也存在种族偏见。

提供该软件的公司Northpointe对报告的结论提出异议,但声称该项目由于敏感的商业机密拒绝透露内部算法。无论如何,ProPublica的指责还是揭示了一个困扰许多社会学家和计算机科学家多年的问题,即在计算工具变得越来越先进的同时,其计算原理也变得越来越不透明。计算工具所依赖的逮捕记录、邮政编码、社会关系和收入等数据,不仅带有偏见,也有可能进一步加深人类的偏见。

当我们为计算机算法提供的信息越多,机器学习和其它利用大数据的程序所展现出来的性能也就越好。据麦肯锡的全球管理顾问透露,在过去的一年中,针对人工智能这一领域,科技公司大约投入了200亿到300亿的资金,并主要用于研发。这些公司相信人工智能能够筛选社会所产生的大量信息,并找到有助于人类社会变得更高效、更富有、更高幸福指数的模式。

许多科学家都希望利用机器学习实现很多事情,例如帮助失业人员找到工作、预测养老基金的走势,以及整理税务和海关工作。这些项目将会涉及到人类生活的方方面面,成为一种得到广泛认可的智慧。如其中一位计算机科学家所说:“我们可能不知道人工智能的应用现在有多么广泛,但是,我却知道我们不能后退。”

然而,目前人们对人工智能的关注点往往是在预测未来趋势上,关于如何阻止相关项目进一步加剧过去社会中存在的不平等现象却关注得很少。

旧金山非盈利性人权数据分析组(HRDAG)的首席统计师Kristian Lum表示:“人们常常一不小心就会让程序自动执行不该有的偏见认知。”去年,Lum和一位合作伙伴一起展示了一个称为“PredPol”的项目,计算机基于对过去的犯罪报告的“学习”,可以帮助警察部门预测未来犯罪可能发生的热点地区。而这也导致了警察部门对于黑色和棕色人种聚集的地区过度警惕。一位政策研究员Samuel Sinyangwe表示,这种做法“特别恶毒”,一方面,警察可以说自己没有偏见,只是根据数据的分析结果执行;另一方面,这也在暗示公众计算机的算法是公正的。

计算机的偏见认知是人类赋予的

事实上,计算机本身是不会有偏见的,但是它会从人类所提供的数据中快速学会歧视。虽然机器学习使得计算机可以做很多例如语言翻译、人脸识别或在Netflix队列中推荐电影的工作。但是,随着算法得以从原始代码不断“循环学习”,其中的原理也变得越来越复杂、越来越不透明。而对此,很多像Northpointe一样的公司,碍于算法的商业敏感性往往也不愿意透露算法的内部运行原理。

此前,巴斯大学(University of Bath)的一位研究员Joanna Bryson开发了一个旨在“学习”词汇之间的关联性的程序,并发现这一程序在读取了互联网上数百万页的文本之后,开始将女性的名字和代词与“接待员”和“护士”等工作联系起来。令她更为震惊的是,这个结果与美国政府数据所显示的结果一致,性别的确与职业存在着近90%的相关性。

Bryson表示:“人们希望人工智能是公正客观的,而这本身就是错误的。如果基础数据反映了人们的固有印象和判断,或者如果你根据人类的文化来训练人工智能,那么,你还是会发现偏见在人工智能领域中也是普遍存在的。”

那么,在这样的情况下,谁会是“受害者”?根据Cathy O'Neil所著的《数学杀伤性武器(Weapons of Math Destruction)》一书中所说,在当今社会里,最大的“受害者”通常是那些最容易受到自动化系统评估影响的人。比如说,真正富有的人不太可能通过网络去找工作,也不会让银行行政人员以外的任何人评估他们的贷款申请。而在司法制度中,那些成千上万没有钱雇佣律师或其他法律顾问的被告,将成为最有可能接受计算机自动评估的人。

在Kristian Lum 2016年发表的一篇论文中,她具体揭示了由于人工智能系统中偏见的存在,哪些人群会成为“受害者”。以PredPol为例——该项目根据奥克兰市警察局提供的近期犯罪和逮捕记录的统计数据进行分析,总结出了未来可能发生犯罪的地域,从而为警方部署提供依据。尽管统计学家们以国家统计数据为基础,统计出的整个国家的毒品使用量白人和黑人的概率差不多,但是,PredPol项目显示的犯罪集中区域的结果中黑人社区的数量却是白人社区数量的两倍。

而如果美国警方根据PredPol所预测的结果在这些区域不断开展行动并增加了逮捕数量,就会进入一个恶性循环,在那些警察最常访问的地区,PredPol预测的犯罪行为也会越来越多。同时,这也将导致更多的警察被安排到这些地区。如此循环往复。

要解决偏见认知的问题还没有“万全之策”

虽然,我们大多数人都不了解PredPol等程序中的复杂代码,但是,洛杉矶一个处理警方监视的社区小组Stop LAPD Spying Coalition,其组织者Hamid Khan表示,人们认为预测性警务是一种自上而下的保持治安水平不变的方法,这将会导致那些本就不稳定的地区陷入病态化。

在计算机科学界有这么一句话,错误的输入,就会导致错误的输出。这意味着程序并不是万能的,如果你给计算机的信息是有缺陷的,计算机并不会修复这些缺陷,而只是根据已有的信息进行处理。用Khan的话说:“输入了种族主义,就会导致种族歧视信息的输出”。

但现在我们还不清楚的是,现行的法律怎么样去防止歧视,以及如何规范算法决策来解决这个问题。2016年,曾为微软研究员的康奈尔大学教授Solon Barocas表示,当涉及大数据和机器学习时,现行法律是几乎不能解决歧视问题的。目前在美国,已经有许多传统的民权主义者,包括美国公民自由联盟(ACLU)在内,正在不断维护民众在这方面的权利,甚至试图通过城市政策,要求警方披露其采用的包括人工智能在内的所有技术。

但是,由于政府机构采用私有企业的技术,其内部工作原理可能不透明,因而这一过程非常复杂并且曲折。

对此,英国也实施了一系列的保护措施。例如,如果一项决定被完全交给计算机,那么,政府的服务商和公司就必须进行披露。但是,牛津大学的阿兰图灵研究所的法律学者Sandra Wachter则表示,现行法律并没有完全符合技术进步的方向,很多漏洞都可能造成算法的不公开使用。因此,他要求政府提供“解释权”,所有对应的实施方案都必须以更高的透明度完全公开。

针对这一话题,很多科学文献都反映了当今社会关于“公平”本质的辩论,而研究人员正在采用一切方法,从几十年的历史数据中剥离“不公平”的因素,并修改算法模型,从而保护受反歧视法保护的所有群体。然而,图灵研究所的一名研究员仍然认为这是非常困难的,因为“改变变量可能会引入新的偏见,有时我们甚至不知道偏见如何影响数据,以及什么才是偏见。”

所以说,人工智能除了技术和应用本身,还有很多的社会和道德问题需要解决。可以说,计算机科学家面临着一个陌生又熟悉的挑战:他们的工作要面向未来,但是,在面对有学习能力的机器的时候,却发现自己却还被困在非常古老而传统的问题中。

原文发布时间为:2017-8-24

本文作者:黄雅琦

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

AI也会“学坏”?都是人类捣的鬼!相关推荐

  1. 我从AI For Everyone学到的十个重要AI 概念

    在这个人机共存的年代,每个人都应该去尝试了解并运用人工智慧这个超能力.思考自己未来在这个变化快速的世界的定位. 曾经领导Google Brain 的吴恩达教授公开的Coursera 课程:AI For ...

  2. 正面刚CNN,Transformer居然连犯错都像人类

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 梦晨 水木番 发自 凹非寺 量子位 报道 | 公众号 QbitAI ...

  3. 伯禹公益AI《动手学深度学习PyTorch版》Task 07 学习笔记

    伯禹公益AI<动手学深度学习PyTorch版>Task 07 学习笔记 Task 07:优化算法进阶:word2vec:词嵌入进阶 微信昵称:WarmIce 优化算法进阶 emmmm,讲实 ...

  4. 「人物特写」清华大学教授、IEEE Fellow王志华:几乎所有的AI,到现在为止都是胡扯...

    不管是哪些领域,只要你做的是可知的应用,那你就老老实实的说你在做应用.在做图像解析,而不要吆喝着所谓的'人工智能'. AI,人工智能. 近几年的热度自然不用多讲.尤其是自今年年初被写进政府工作报告之后 ...

  5. 培养组学对已分离人类细菌和古菌物种库的贡献

    标题:The contribution of culturomics to the repertoire of isolated human bacterial and archaeal specie ...

  6. 清华张学工团队入选“人类细胞图谱计划”首批项目

    来源:测序中国 作者:Reggie 本文长度为2600字,建议阅读3分钟 本文为你介绍"人类细胞图谱计划"公布首批38个项目,并分享清华大学张学工教授专访. 美国太平洋时间2017 ...

  7. 学什么都不容易!学好一样更不容易!

    好难啊,学什么都好难啊,想学好一样啊更难.现在的社会更是逼的你必须有你的价值,你才能在这个'适者生存'的环境中生存下去.还得必须付出努力.否则你就会被淘汰,被逼的连基本的生活都保障不了,就更别说好日子 ...

  8. Waymo自动驾驶报告:平均21万公里一次事故,严重事故都是人类司机的锅

    郭一璞 发自 凹非寺 量子位 报道 | 公众号 QbitAI "你们人类开车水平不行." Waymo自动驾驶,内心大概是这样想的吧. 他们盘了盘从去年年初开始1年零9个月的路测事故 ...

  9. 脑洞大开!拿Transformer和CNN比较!犯错都像人类

    点上方计算机视觉联盟获取更多干货 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:量子位 AI博士笔记系列推荐 周志华<机器学习>手推笔记正式开源!可打印版本附pdf下载链接 这是 ...

最新文章

  1. 实验三:XML模型(一)
  2. Linux Kernel 5.0 RC 7 发布
  3. 压缩追踪Compressive Tracking源码理解
  4. Android -- 带你从源码角度领悟Dagger2入门到放弃(一)
  5. hihocoder1147 时空阵(bfs树+DP)
  6. 微软计划Windows 7 SP2开发
  7. 前言 第一章 为什么要培养好习惯
  8. Redis Lua脚本
  9. 9008刷机工具_一加6(oneplus6)手机氧OS底包下刷入MIUI12详细刷机教程
  10. CAD使用圆,椭圆,直线综合练习
  11. Java实现坦克大战小游戏(源码+注释)
  12. command/cmd命令大全
  13. Could not resolve dependencies for project com.koolearn:koo-b2b-tesa-api:jar:1.0-dev-SNAPSHOT
  14. 口头禅多多......
  15. C语言编程 - 清空键盘缓冲区
  16. win10电池图标不能调亮度_win10屏幕亮度无法调节?一招解决Win10电脑亮度调节失灵...
  17. 学习笔记:有源晶振与无源晶振(一)
  18. 这是袁隆平40年前稻田教学的样子!网友用AI修复珍贵视频寄托哀思
  19. 《经理人常犯的11种错误》观后感
  20. Android 主题切换/换肤方案 研究(四) - qq和qq空间

热门文章

  1. 前后端交互ajax和axios入门讲解,以及http与服务器基础
  2. FPGA 历险记——xilinx MIG 使用(一)
  3. 计算机工作站,大厂设计专用出差笔记本?戴尔3551+代图形设计工作站
  4. 特征选择,熵,条件熵,信息增益
  5. 阿里云 CentOS 7安装 Zimbra-8.8.15开源邮件系统
  6. 遗传算法计算函数最小值(多维)
  7. Linux定时任务详解
  8. [转]速度与激情:雷军和小米手机的三国杀
  9. 博弈论Nim取子问题,困扰千年的问题一行代码解决
  10. tpshop是什么?