interpretable

Disclaimer: I’ll be briefly mentioning logistic-regression and basic feed-forward neural networks, so its helpful to have programmed with those 2 models before reading this piece.

免责声明:我将简要介绍逻辑回归和基本前馈神经网络,因此在阅读本文之前使用这两种模型进行编程将很有帮助。

OK — before machine learning folks come running after me after reading the title, I’m not talking about linear regression, for example. Yes, in linear regression, you can use the R-squared (or adjusted R-squared statistic) to talk about explained variance, and since linear regression only involves addition between independent variables (or predictors), they’re pretty interpretable. If you were doing a linear regression to predict, say the price of a car Car_Price, based on the number of seats, mileage, maximum-speed, and battery life, your linear model could be –– say Car_Price = c1*Seats + c2*Mileage + c3*Speed + c4*Battery_Power –– the fact that variables are only added makes it pretty interpretable. But when it comes to more complex prediction models like Logistic Regression and neural networks, everything about the predictors (or called “features” in ML) becomes more confusing. And logistic-regression & neural networks fall under supervised learning, because they basically just estimate a complicated black-box function from data -> labels.

好吧-例如,在机器学习的人们在阅读标题后追赶我之前,我不是在谈论线性回归。 是的,在线性回归中,您可以使用R平方(或调整后的R平方统计量)来讨论已解释的方差,并且由于线性回归仅涉及自变量(或预测变量)之间的加法,因此它们是可以解释的。 如果您要进行线性回归以预测汽车的价格,例如Car_Price ,基于座位数,里程,最大速度和电池寿命,则您的线性模型可能为-说Car_Price = c1 * 座位 + c2 * 里程 + c3 * 速度 + c4 * Battery_Power –仅添加变量的事实使其易于解释。 但是,当涉及到诸如Logistic回归和神经网络之类的更复杂的预测模型时,关于预测变量的一切(在ML中称为“功能”)都会变得更加混乱。 逻辑回归和神经网络属于监督学习 ,因为它们基本上只是从数据->标签估计复杂的黑盒功能。

People use logistic regression to predict whether something is true or not; for example, if patient X has a disease or not. It’s an example of a nonlinear classifier, because instead of just adding the features together, the features are mapped through the nonlinear sigmoid function, which squishes all inputs into the range between 0 and 1, since logistic regression is supposed to represent a probability. (Technically, if you search logistic-regression on Wikipedia, the “decision boundary” is linear, but that’s not the point.) TO me at least, logistic-regression already seems a bit less interpretable than linear-regression because of the nonlinear part. And neural networks are logistic regression chained together! (It’s a rough analogy, but it helps explain a point.) Neural nets, are by definition, made to be nonlinear so it would find non-linear connections between features and be a better predictor for say, image recognition –– why? Because the pixels are considered features, and the pixels making up a recognizable image are related in a non-linear way since images are complex.

人们使用逻辑回归来预测某些事物是否正确。 例如,患者X是否患有疾病。 这是一个非线性分类器的示例,因为通过非线性Sigmoid函数映射了这些特征,而不是仅将特征加在一起,该函数将所有输入压缩在0到1之间的范围内,因为逻辑回归应该表示概率。 (从技术上讲,如果您在Wikipedia上搜索逻辑回归,则“决策边界”是线性的,但这不是重点。)至少对我而言,由于非线性部分,逻辑回归似乎比线性回归的解释性差一些。 而且神经网络是逻辑回归链接在一起的! (这是一个粗略的类比,但它有助于解释一个观点。)根据定义,神经网络是非线性的,因此可以发现特征之间的非线性联系,并且可以更好地预测图像识别,这是为什么? 因为像素被认为是特征,并且由于图像复杂,所以构成可识别图像的像素以非线性方式相关。

But neural networks are often described as an unexplainable black box, and you do NOT want a neural network making important decisions about employment, loans, health-data, and so on if you can’t explain the reasons for the model’s decision. And given at least a. few self-driving fatal car accidents whose software runs on deep learning, a neural network’s decisions that led to a injury or death can’t even be explained in a principled way!

但是神经网络通常被描述为无法解释的黑匣子 ,如果您无法解释模型决策的原因,则您不希望神经网络对就业,贷款,健康数据等做出重要决策。 并至少给定一个。 很少有软件能够在深度学习上运行的自动驾驶致命车祸 ,甚至无法用原则性的方式来解释导致受伤或死亡的神经网络决策!

Neural networks are based on the idea of approximating functions, or mappings, between data and its label (example: image of a cat, cat-label). But in the 1989 original paper proving that neural networks can do this, the author, Cybenko, stated at the end: “At this point, we can only say that the majority of [mapping/function] approximation problems will require astronomical numbers of terms [neural nodes].” So while neural networks can create any function mapping between, say images (or predicting the next-word, with recurrent nets), they often have to have hundreds-of-thousands to millions of parameters (also called “weights”, same as “terms” that Cybenko says), with no principled way of interpreting and explaining the nonlinear connections. And human brains don’t need to see thousands of examples to generalize as neural nets do. For example, AlexNet, a famous neural network trained to classify cats, houses, cars, and real-life objects, has 60 million parameters, and had to be trained on 15 million images with almost 700 images for each label. And it sucked up an immense computational energy with multiple GPUs –– technologies that mostly large companies and research groups with tons of money have access to.

神经网络基于在数据及其标签(例如:猫的图像,猫标签)之间近似函数或映射的想法。 但是在1989年证明神经网络可以做到这一点的原始论文中 ,作者Cybenko最后说:“ 在这一点上,我们只能说大多数[映射/函数]逼近问题将需要天文数字的项[神经节点] 。” 因此,尽管神经网络可以在图像之间(或使用递归网络预测下一词)之间创建任何函数映射,但它们通常必须具有数十万数百万个参数(也称为“权重”,与Cybenko所说的“术语”,没有解释和解释非线性连接的原则方法。 人类的大脑不需要像神经网络那样去看成千上万个例子来进行概括。 例如,著名的神经网络AlexNet受过训练,可以对猫,房屋,汽车和现实物体进行分类,它具有6000万个参数,并且必须针对1500 幅图像进行训练,每个标签将近700张图像。 而且它利用多个 GPU吸收了巨大的计算能力-大多数拥有大量资金的大型公司和研究小组都可以使用的技术。

Personally, I believe that AI could use a dose of two things to make itself interpretable: inference, and unsupervised learning. Why? Well, I believe it comes down to the following equation:

我个人认为AI可以使用两件事来使自己具有可解释性: 推理无监督学习 。 为什么? 好吧,我相信可以归结为以下等式:

This is Bayes’ Theorem, but with 2 hypothesis. Basically it says that the belief we give to hypothesis 1 over hypothesis 2 after seeing data, is just the product of how likely the data is assuming our hypotheses, times what we thought about the hypotheses before seeing the data. There’s evidence our brain computes probabilistic inference subconsciously in a similar way. But where does unsupervised learning play in, you say? Well, precisely in the “likelihood” piece of the equation. If you’ve heard of unsupervised learning related to “clustering”, or “finding patters in data without labels” –– that’s all true. But unsupervised learning is fundamentally about density-estimation, a fancy of way of saying “data description”. Density estimation gives us more power than just clustering. It can generate new data all on its own! And crucially, if we can use it to generate new data, then assuming either hypothesis, we can compare the distribution of generated data, to what we see in our test data. And if the test data is more likely to be generated with our estimated density by assuming Hypothesis 1 over 2, we can decide to choose one over the other. That kind of decision, I believe at least, is explainable and understandable because human brains are already wired to understand likelihood and reason with uncertainty. Generating new data in our mind is an important part of human intelligence –– so it should definitely be a key part of Interpretable-AI.

这是贝叶斯定理,但有两个假设。 基本上说,看到数据后我们对假设1相对于假设2的信念,仅仅是数据假设我们的假设的可能性乘以我们看到数据之前对假设的想法的乘积。 有证据表明, 我们的大脑以类似的方式下意识地计算了概率推论 。 但是,您说无监督学习在哪里发挥作用? 好吧,正好在等式的“ 可能性”部分。 如果您听说过与“聚类”或“在没有标签的情况下寻找模式”有关的无监督学习,那是完全正确的。 但是无监督学习从根本上讲是关于密度估计的 ,这是一种表达“数据描述”的方式。 密度估算不仅提供聚类功能,还为我们提供了更多功能。 它可以自行生成新数据! 至关重要的是,如果我们可以使用它来生成新数据,则假设有任何一种假设,我们都可以将生成数据的分布与测试数据中看到的进行比较。 如果假设1比2假设可能以我们的估计密度生成测试数据,则我们可以决定选择一个。 至少,我认为这种决定是可以解释和理解的,因为人脑已经连接起来,以不确定性理解可能性和原因。 在我们脑海中生成新数据是人类智能的重要组成部分–因此,它绝对应该是Interpretable-AI的关键部分。

machinelearningmastery.commachinelearningmastery.com

In my next article, I’ll be going over a use case of this. I’ll be analyzing the “Hepatocellular Carcinoma” dataset from the free online UCI Learning Repository , and show the code and results for classifying whether a patient with certain medical features survives or dies from the carcinoma. We’ll get to see differences in interpretability using 1) logistic-regression model to predict survival, and 2) a unsupervised, generative model, like above, to predict survival. See you then!

在我的下一篇文章中,我将介绍这个用例。 我将分析免费的在线UCI学习资料库中的“肝细胞癌”数据集 ,并显示用于对具有某些医学特征的患者存活还是死于癌症进行分类的代码和结果。 我们将使用1)逻辑回归模型预测生存率,以及2)无监督的生成模型(如上)预测生存率来了解可解释性的差异。 回头见!

EDIT: My follow-up article, “Interpretable-AI: Use-Case with Health Data” is out on my Medium profile now! Any readers here who finished this piece, feel free to check it out!

编辑:我的后续文章“ Interpretable-AI:具有健康数据的用例 ”现在在我的Medium个人资料中! 这里的所有读者只要完成这篇文章,就可以随时查看!

Feel free to contact me at my LinkedIn!

请随时通过我的LinkedIn与我联系!

翻译自: https://medium.com/swlh/explainable-ai-where-supervised-learning-can-falter-edf2b562845a

interpretable


http://www.taodudu.cc/news/show-1873808.html

相关文章:

  • 生物物种数据库_一个半机械人的物种
  • pytorch使用模型预测_使用PyTorch从零开始对边界框进行预测
  • NLP对放射科医生的评价
  • 中国ai人工智能发展太快_新的AI计算遥远行星的速度快100,000倍
  • 均衡器算法_必须像算法一样对算法进行仔细调整。 怎么样? 算法均衡器
  • ai决策_基于经验的决策与基于事实的决策:AI / ML如何改变工程师的工作方式
  • 您实际上可以通过这些YouTube视频了解GPT-3
  • openai-gpt_GPT-3不会承担您的编程工作
  • ai带来的革命_Covid-19将加速AI医疗保健革命
  • ai人工智能的数据服务_可解释的AI-它对数据科学家有何影响?
  • 若泽数据 巨人_面部识别巨人拒绝分享有关其算法数据集的详细信息
  • 计算机视觉 图像合成_合成数据如何促进计算机视觉
  • cnn初学者—从这入门_使用Tensorflow为初学者使用CNN进行简单图像分类
  • 加速器instagram_“类似Instagram过滤器”标记肿瘤图像中的分子细节
  • 技术专家(ai/大数据)_``我们淹没在数据中'':在专家和AI时代如何思考自己
  • chatbot使用_使用Python设计ChatBot:一种改进的方法
  • ai人工智能_我的人工智能周:第5部分
  • ai人工智能_AI如何帮助截肢者?
  • 全球100ai顶尖科学家_如何为顶尖学校学习AI撰写成功的目标陈述
  • 颜色 透明度 算法_通过问责制和透明度减少算法偏差
  • ai人工智能的本质和未来_人工智能简介:这就是未来
  • 提高excel生产力_1.提高员工生产力和工作满意度
  • 联合国devnet_联合国人权可能会适用于人工智能,如果是这样,考虑一下自动驾驶汽车的奇怪案例
  • openai-gpt_OpenAI的GPT-3:货物崇拜编程人员的终结
  • ai人工智能_相信AI?
  • 机器学习 数据间的定义_定义数据科学,机器学习和人工智能
  • ai/ml_您应该在本周(7月18日)阅读有趣的AI / ML文章
  • jpl数据下载_火星上的AI:喷气推进实验室(JPL)的Tom Soderstrom访谈
  • 脓毒症观察实践
  • ai人工智能操控什么意思_为什么AI会(永远)接管

interpretable_Interpretable-AI:监督学习可能失败的地方相关推荐

  1. 苹果微信验证失败,安卓成功_苹果将​​在微软失败的地方成功吗?

    苹果微信验证失败,安卓成功 If you have been an Apple user long enough, then you probably lived through a few pain ...

  2. IBM的医疗AI为何失败

    来源:陆志方科学网博客 最近,看到一篇关于医疗AI的文章<IBM医疗AI宣告失败,率先入局却踏步不前>.1997年IBM深蓝战胜国际象棋世界冠军卡斯帕罗夫,名声大噪:2011年开始,IBM ...

  3. 想用 AI 在《MineCraft》挖矿躺赢?660 支队伍全部失败

    By 超神经 场景描述: 在<我的世界>游戏里,许多玩家都会痴迷于挖矿寻找钻石的任务,这项具备一定挑战的工作,交给 AI 会怎么样呢?NeurIPS 2019 开启了一项赛事,用 AI 在 ...

  4. Goodfellow说,聊失败才不是在秀优越...

    花栗子 编译自 Veronikach 量子位 出品 | 公众号 QbitAI △ 我们是五月的花海 五月了,美国研究生申请季也差不多过去了.不知道大家有没有成功脱离失学儿童团. Ian Goodfel ...

  5. 图解自监督学习,人工智能蛋糕中最大的一块

    作者:Amit Chaudhary 编译:ronghuaiyang (AI公园) 原文链接: 图解自监督学习,人工智能蛋糕中最大的一块​mp.weixin.qq.com 如果人工智能是一块蛋糕,那么蛋 ...

  6. AI 白皮书:赢家、输家

    来源:云头条 引言:纵观历史,对企业界而言改变游戏规则的始终是技术.制造商取代手艺人,工厂从制造商手里接过接力棒,自动化和遥测技术取代大部分重复性的人力劳动.从个人计算机到互联网和移动商务,在过去的3 ...

  7. 裁掉杰森伯恩,招揽人工智能,AI间谍厉害在哪?

    来源:智能相对论   作者: 岳文纶 摘要:CIA宣布,计划用人工智能取代间谍.其技术开发副主任Dawn Meyerriecks表示,CIA正在适应新的情形,其主要对手是一台机器,而不是一名外国间谍. ...

  8. ai前沿公司_美术是AI的下一个前沿吗?

    ai前沿公司 In 1950, Alan Turing developed the Turing Test as a test of a machine's ability to display hu ...

  9. 我,大学没毕业,在OpenAI搞AI,想教教你如何提升“研究品味”

    文 | 蒋宝尚 源 | AI科技评论 在AI圈里有这么一个人,虽然大学没有毕业,但却做过谷歌大脑研究员,担任过OpenAI团队的领导人.他被人称作"怪胎",也被人称作神童. 他的名 ...

  10. 测试用例又双叒叕失败了,NLP帮你

    摘要:本文将介绍如何使用AI技术实现失败测试用例的智能分析. 本文分享自华为云社区<测试用例又双叒叕失败了,啥原因?NLP帮你来分析>,作者: 敏捷的小智 . 随着软件行业的快速发展,为了 ...

最新文章

  1. Servlet(一)
  2. Java零拷贝续——DirectByteBuffer内存回收
  3. 安装QQ时出现无法访问WINDOWS安装服务。
  4. 再次聊聊游戏测试中的bug:bug层级划分与分析
  5. html实现div打印,如何在html div的中间打印/附加从按钮单击的值?
  6. MongoDB--架构搭建(主从、副本集)之副本集
  7. centos yum安装nginx 提示 No package nginx available问题解决方法
  8. 操作系统知识点大总结【进程同步与互斥】
  9. Angular 内嵌视图、宿主视图
  10. jenkins 插件目录_Windows下allure+pytest+jenkins集成手册!
  11. 【App 支付】交易查询接口
  12. pyspark--dataframe使用
  13. 通俗易懂地讲解 __block 变量
  14. 解决一次模拟post请求的时候,出现中文???的错误
  15. 泛微oa部署linux步骤,泛微E-Cology协同办公平台安装部署手册.doc
  16. C和指针 第13章 高级指针话题 13.2 高级声明
  17. EXCEL数组公式(6),注意聚合函数在数组公式中的用法
  18. 鸟哥linux私房菜读后,鸟哥的Linux私房菜读书笔记(1)
  19. Thinkphp6 获取当前协议+域名
  20. 64位mysql下载百度云_MySQL下载与安装

热门文章

  1. SendMessage 与 PostMessage
  2. Oracle表名、列名、约束名的长度限制
  3. DOTA版设计模式——责任链
  4. Atitit 嵌入式tomcat 嵌入式服务器 attilax 你感觉艾提拉 总结 比起嵌入jetty ,文件可以自动刷新貌似还不错。。方便调试debug package com.attilax.
  5. Atitit 图像处理之编程之类库调用的接口api cli gui ws rest  attilax大总结.docx
  6. Atitit Gaussian Blur 高斯模糊 的原理and实现and 用途
  7. paip. 混合编程的实现resin4 (自带Quercus ) 配置 php 环境
  8. paip.验证码识别----判断汉字还是英文
  9. 阿里云linux上安装,卸载mysql与重新安装配置Mysql
  10. 星环TDH助力南方基金数据中心迈入大数据时代