什么是认知偏见

The term Artificial Intelligence has been in use since 1955. AI pioneer, John McCarthy described AI as “making machines do things that would require intelligence if done by man.” However recently there has been a sudden resurgence in the concept because of how pervasive it is in our daily lives. The shows we watch on Netflix, to what ads and search results we get served, what information we are shown on social media, to how we make decisions — they are all governed by AI algorithms created by people.

自1955年以来就一直使用人工智能一词。人工智能的先驱约翰·麦卡锡(John McCarthy)将人工智能描述为“制造机器做的事情如果要由人来完成则需要智慧。” 但是,由于它在我们日常生活中的普遍性,最近该概念突然复活了。 我们在Netflix上观看的节目,向我们提供的广告和搜索结果,在社交媒体上显示的信息,我们如何做出决策-这些都由人们创建的AI算法控制。

This pervasiveness makes it important to acknowledge and unpack what problems are we solving through AI, and who is creating the steps to solve those problems, whose interests are being represented and why is it being done in the first place.

这种普遍性使得重要的是确认并解开我们通过AI解决的问题,以及谁在创建解决这些问题的步骤,代表谁的利益以及为什么要首先解决这个问题。

To discuss just this, Tea Leaves hosted a panel discussion with eminent theorists and practitioners of AI technology including Dr Jamika D. Burge, Jennifer Bove, Ruth Kikin-Gil and Dr Molly Wright Steenson. The event was a part of the Nature X Design series which has a really cool lineup for the coming months.

为了对此进行讨论,Tea Leaves与著名的AI技术理论家和实践者进行了小组讨论 ,包括Jamika D. Burge博士 , Jennifer Bove , Ruth Kikin-Gil 博士和Molly Wright Steenson博士 。 该活动是Nature X Design系列的一部分,该系列在接下来的几个月中将提供非常酷的阵容。

This article highlights some of the key points discussed.

本文重点介绍了所讨论的一些关键点。

数据收集的重要性 (Importance of data collection)

AI is not ‘intelligent’ but rather is intentional. AI does things that it is trained to do based on existing data. Analyzing and reflecting on the data set being used to train is crucial. Are we reaching everybody and reflecting a diversity of experiences through the data sets we use to train AI algorithms? Asking this question is important because data comes from the past, and runs the risk of reinforcing existing biases. If we want AI to be responsible and ethical the first step should be to intentionally source data that is reflective of multiple viewpoints and lived experiences.

人工智能不是“智能”的,而是故意的。 AI会根据现有数据执行受过训练的工作。 分析和反思用于训练的数据集至关重要。 我们是否通过使用用于训练AI算法的数据集来影响每个人并反映出各种各样的经验? 提出这个问题很重要,因为数据来自过去,并且存在加强现有偏差的风险。 如果我们希望AI负责任和符合道德,那么第一步应该是有意地获取反映多种观点和生活经验的数据。

AI的交叉性 (Intersectionality in AI)

The algorithms that govern AI are created by people for people. Biases do exist unless they are systematically eliminated. One of the strategies proposed to eliminate these biases is to base the creation of AI on basic human values. While human values may be a good starting point, it may be limited because of the subjective nature of values. What if people designing and using these algorithms have drastically different values? To represent the context and lived experience of a large number of users, it is therefore more pertinent to create a strong foundation in intersectionality. Intersectionality, which is to consider the multiple dimensions of lived experience and identity, can truly push the needle towards more just, ethical and unbiased AI.

支配AI的算法是人为人创造的。 除非系统地消除了偏见,否则确实存在偏见。 提出的消除这些偏见的策略之一是将AI的创建基于人类的基本价值观。 虽然人的价值观可能是一个很好的起点,但由于价值观的主观性质,它可能受到限制。 如果设计和使用这些算法的人具有截然不同的价值怎么办? 为了代表大量用户的上下文和生活经验,因此在交叉性方面打下坚实的基础更为相关。 交叉性是考虑生活经验和身份的多个维度,可以真正推动实现更公正,道德和公正的AI。

设计师的角色 (Role of designers)

Designers have a pivotal role to play in the creation of AI by being the voice of the users and key players in democratizing AI. Their role includes raising questions on what data is being collected about them, how it’s being used, who is benefiting from the data being collected. Bringing this voice of the user to the development process can address some ethical concerns earlier on. As designers, we are also well-positioned to raise awareness among end-users on potential errors, consequences from the use of AI and shed light on the ways to mitigate them. Designers can advocate for transforming AI from being a tool for extracting value from users to providing value to users.

设计师在成为AI民主化的用户和关键参与者的心声中,在AI的创建中扮演着举足轻重的角色。 他们的角色包括就收集有关它们的哪些数据,如何使用它们,谁从收集的数据中受益等问题提出疑问。 将用户的声音带入开发过程可以在早期解决一些道德问题。 作为设计师,我们也处于有利位置,可以提高最终用户对潜在错误,使用AI的后果以及减轻错误的方式的认识。 设计师可以倡导将AI从一种从用户身上获取价值的工具转变为向用户提供价值的工具。

The great thing about AI is that it can be taught new patterns and models. It is time to re-educate our machines to be more ethical, just and an ally for people.

AI的伟大之处在于可以教授新的模式和模型。 现在是时候重新培训我们的机器,使其更具道德,公正和人民盟友的精神。

翻译自: https://medium.com/design-forward/bias-in-bias-out-942dd08ff72f

什么是认知偏见


http://www.taodudu.cc/news/show-6581638.html

相关文章:

  • 设计模式-行为型模式:中介者模式
  • 歧视来源于偏见,偏见来源于无知。改变不了环境就只能搞钱
  • 行为型设计模式之中介者模式
  • 自我服务偏好
  • 产品心理学:识知偏见,我们和自己开的玩笑
  • 对保险的一些思考
  • 自我、职业、人生的思考
  • 行为型-中介者模式
  • 《自我服务偏见》读后感
  • 自我服务偏见
  • 刷新主板BIOS的几种方法
  • 刷BIOS的通用方法
  • 国产61850(CMS)协议与国际61850(MMS)协议有什么区别?
  • 推荐几款音频转文字软件给你
  • 免费文字转语音软件哪个好?推荐这三款文字转语音软件给你
  • 手机文字转语音软件哪个好用?超火的两款好用的文字转语音软件
  • 常见故障:找不到/mnt/packages/的解决办法
  • linux smb 取消挂载报错umount: /mnt: target is busy.
  • Linux /mnt/hgfs/ 下找不到共享文件夹
  • linux下mnt目录的作用
  • 解决Ubuntu虚拟机下mnt/hgfs下没有共享文件夹的问题
  • android 12 /mnt/media_rw读取异常
  • 输入命令:mount /mnt/cdrom输出错误为:mount: /mnt/cdrom: can‘t find in /etc/fstab
  • umount: /mnt/raid:目标忙。
  • /mnt/hgfs为空
  • 挂载SD卡到mnt目录
  • /mnt/asec /mnt/secure文件夹
  • mnt/hgfs中不显示共享文件夹解决方法
  • Linux ns 3. Mnt Namespace 详解
  • 在/mnt/看不到共享文件夹的解决

什么是认知偏见_偏见相关推荐

  1. 如何识别媒体偏见_超越偏见:为什么我们不能仅仅“修正”面部识别

    如何识别媒体偏见 In recent months, the troubling issue of facial recognition has hit headlines. 近几个月来,令人困扰的面 ...

  2. 歧视来源于偏见,偏见来源于无知。改变不了环境就只能搞钱

    你们可以不尊重我,羞辱我,时代不允许我反抗,但我将以自尊自重来向你声明"我不轻贱".用正直面对你们的歧视,用不卑不亢对待你们的不平等.真正的勇士,敢于直面惨淡的人生.--绿皮书 歧 ...

  3. 标记偏见_分析师的偏见

    标记偏见 "Beware of the HiPPO in the room" - The risks and dangers of top-down, intuition-base ...

  4. 怎样避免无意识偏见_精神病学意识到大数据和人工智能的价值和偏见

    怎样避免无意识偏见 Cure her of that! Canst thou not minister to a mind diseased, pluck from the memory a root ...

  5. 如何识别媒体偏见_描述性语言理解,以识别文本中的潜在偏见

    如何识别媒体偏见 TGumGum can do to bring change by utilizing our Natural Language Processing technology to s ...

  6. 标记偏见_协作和透明的机器学习可消除偏见

    标记偏见 No one wants bias in their organization. Underrepresentation has plagued the business world for ...

  7. 标记偏见_如何(巧妙地)扭曲视觉效果以支持您的偏见叙事

    标记偏见 Data is important - it is the logical justification for world-changing decisions. Unfortunately ...

  8. 如何了解自己的认知偏差_了解吸引力偏差

    如何了解自己的认知偏差 Let me introduce you the attractiveness bias theory known as cognitive bias. 让我向您介绍称为认知偏 ...

  9. 语言认知偏差_我们的认知偏差正在破坏患者的结果数据

    语言认知偏差 How do we know if we are providing high-quality care? The answer to this question is sought b ...

最新文章

  1. js逻辑训练题_二建冲刺必刷300题!精选历年真题+母子题+模考易错题!
  2. android变量要不要附空值,android-如何在使用Parcelable时序列化空值
  3. Matlab矩阵查找
  4. 机器学习之EM算法的原理推导及相关知识总结
  5. 福布斯发布2019最值得关注IoT公司榜单,全球化AI+IoT平台涂鸦智能上榜
  6. python基础整数和浮点数(一)
  7. 补充轻量级持久层V2版本的测试页面模板与实体类模板
  8. 中外白领和无领的一天
  9. mysql innodbdatahomedir_mysql gtid复制
  10. VS“当前上下文中不存在名称“ViewBag”,当前上下文不存在名称“model””-已解决...
  11. Win10保护眼睛豆沙绿背景
  12. python数据清洗代码_微博数据清洗(Python版)
  13. 用蒙特卡洛仿真估计π的值
  14. kindle不能接收qq邮箱超大附件
  15. TestCenter测试管理工具介绍和环境配置(A)
  16. PHP处理base64编码字符串
  17. 低依赖C++ GUI库imgui笔记
  18. Dropbear替代Openssh-ssh client使用
  19. toad for oracle如何执行sql文件,toad执行sql语句
  20. 找到系统视图定义的几种操作

热门文章

  1. microsoft 文件服务器迁移工具包,使用FSMT工具迁移文件服务器
  2. android 分享到twitter,如何在android中直接分享http图片到twitter?
  3. 稀疏矩阵的快速转置(C语言版)
  4. week10(图论2)
  5. VirtualBox开启显卡3D加速
  6. WinForm加载网络图片并显示进度条
  7. 荟聚NeurIPS顶会模型、智能标注10倍速神器、人像分割SOTA方案、3D医疗影像分割利器,PaddleSeg重磅升级!
  8. 创业公司如何获得融资,创业融资需要注意哪些事项?
  9. 手把手教你如何屏蔽微信PC端的自动更新
  10. oracle中rac是什么意思,学习猿地-oracle rac是什么?