无监督学习 k-means

有关深层学习的FAU讲义 (FAU LECTURE NOTES ON DEEP LEARNING)

These are the lecture notes for FAU’s YouTube Lecture “Deep Learning”. This is a full transcript of the lecture video & matching slides. We hope, you enjoy this as much as the videos. Of course, this transcript was created with deep learning techniques largely automatically and only minor manual modifications were performed. Try it yourself! If you spot mistakes, please let us know!

这些是FAU YouTube讲座“ 深度学习 ”的 讲义 这是演讲视频和匹配幻灯片的完整记录。 我们希望您喜欢这些视频。 当然,此成绩单是使用深度学习技术自动创建的,并且仅进行了较小的手动修改。 自己尝试! 如果发现错误,请告诉我们!

导航 (Navigation)

Previous Lecture / Watch this Video / Top Level / Next Lecture

上一个讲座 / 观看此视频 / 顶级 / 下一个讲座

Need a cover for your new album? I GAN help you. Image created using gifify. Source: YouTube
需要新专辑的封面吗? 我会帮你的。 使用gifify创建的图像 。 资料来源: YouTube

Welcome back to deep learning! Today we want to talk about a couple of the more advanced GAN concepts, in particular, the conditional GANs and Cycle GANs.

欢迎回到深度学习! 今天,我们要讨论几个更高级的GAN概念,尤其是条件GAN和Cycle GAN。

CC BY 4.0 from the 深度学习讲座中 Deep Learning Lecture.CC BY 4.0下的图像。

So, let’s have a look at what I have here on my slides. It’s part four of our unsupervised deep learning lecture. First, we start with the conditional GANs. So, one problem that we had so far is that the generators create a fake generic image. Unfortunately, it’s not specific for a certain condition or characteristic. So let’s say if you have text to image generation then, of course, the image should depend on the text. So, you need to be able to model the dependency somehow. If you want to generate zeros then you don’t want to generate ones. So, you need to put in some condition whether you want to generate the digit 0, 1, 2, 3, and so on. This can be done by encoding conditioning which is introduced in [15].

因此,让我们看一下幻灯片上的内容。 这是我们无监督深度学习讲座的第四部分。 首先,我们从条件GAN开始。 因此,到目前为止,我们遇到的一个问题是生成器创建了伪造的通用映像。 不幸的是,它并非特定于特定条件或特征。 因此,假设您有文本生成图像,那么图像当然应该取决于文本。 因此,您需要能够以某种方式对依赖关系进行建模。 如果要生成零,则不要生成零。 因此,无论是否要生成数字0、1、2、3等,都需要设置一些条件。 这可以通过在[15]中介绍的编码条件来完成。

CC BY 4.0 from the 深度学习讲座中 Deep Learning Lecture.CC BY 4.0下的图像。

The idea here is now that you essentially split up your latent vector into the set that has essentially the observation. Then, you also have the condition which is encoded here in the conditioning vector y. You concatenate the two and use them in order to generate something. Also, the discriminator then gets the generated image, but it also gets access to the conditional vector y. So, it knows what it’s supposed to see and the specific generated output of the generator. So, both of them receive the conditioning and this then essentially again results in a two-player minimax game that can be described again as a loss that is dependent on the discriminator. The extension here is that you additionally have the conditioning with y in the loss.

现在的想法是,您实际上将潜伏向量分成了本质上具有观测值的集合。 然后,您还具有在条件向量y中编码的条件。 您将两者串联起来并使用它们来生成某些东西。 同样,鉴别器然后获得生成的图像,但它也可以访问条件向量y 。 因此,它知道应该看到什么以及生成器的特定生成的输出。 因此,他们两个都接受了条件调整,然后这基本上又导致了两人minimax游戏,该游戏可以再次描述为取决于判别器的损失。 这里的扩展是,您另外具有损耗为y的条件。

CC BY 4.0 from the 深度学习讲座中 Deep Learning Lecture.CC BY 4.0下的图像。

So how does this thing work? You add a conditional feature like smiling, gender, age, or other properties of the image. Then, the generator and the discriminator learn to operate in those modes. This then leads to the property that you’re able to generate a face of a certain attribute. The discriminator learns that this is the face given that specific attribute. So, here, you see different examples of generated faces. In the first row are just random samples. The second row is conditioned into the property of old age. The third row is given the condition old age plus smiling and here you see that the conditioning vector is still able to produce similar images, but you can actually add those conditions on top.

那么这东西如何工作? 您添加条件功能,例如微笑,性别,年龄或图像的其他属性。 然后,生成器和鉴别器学习以那些模式进行操作。 然后,这导致该属性,您可以生成特定属性的外观。 鉴别者得知给定特定属性,这就是面Kong。 因此,在这里,您会看到生成面Kong的不同示例。 第一行只是随机样本。 第二行以老年属性为条件。 第三行给出了老年条件和微笑条件,在这里您可以看到条件向量仍然能够生成相似的图像,但是您实际上可以将这些条件添加到顶部。

A GAN conditioned for age. Image created using gifify. Source: YouTube
适用于年龄的GAN。 使用gifify创建的图像 。 资料来源: YouTube

So, this allows then to create really very nice things like the image to image translation. Below, you have several examples of inputs and outputs. You can essentially then create labels to street scenes, you can generate aerial images to maps, you can generate labels to facades, or black & white to color, day to night, and edges to photo.

因此,这可以创建非常好看的东西,例如图像到图像的翻译。 下面有几个输入和输出示例。 然后,您基本上可以为街道场景创建标签,可以为地图生成航拍图像,可以为立面生成标签,或者为颜色生成黑白,白天到黑夜,以及照片边缘。

CC BY 4.0 from the 深度学习讲座中 Deep Learning Lecture.CC BY 4.0下的图像。

The idea here is that we use the label image again as a conditioning vector. This leads us to the observations that this is domain translation. It is simply a conditional GAN. The positive examples are given to the discriminator. The example below shows a handbag and its edges. The negative examples are then constructed by giving the edges of the handbag to the generator to create a handbag that fools the discriminator.

这里的想法是我们再次将标签图像用作条件向量。 这导致我们发现这是领域翻译。 它只是一个条件GAN。 判别器给出了肯定的例子。 下例显示了手提包及其边缘。 然后通过将手提包的边缘提供给生成器以创建使识别符蒙昧的手提包来构造否定示例。

CC BY 4.0 from the 深度学习讲座中 Deep Learning Lecture.CC BY 4.0下的图像。

You can see that we are able to generate really complex images just by using conditional GANs. Now, a key problem here is, of course, that you need the two images to be aligned. So, your conditioning image like the edge image here has to exactly match the respective handbag image. If they don’t, you wouldn’t be able to train this. So, for domain translation using conditional GANs, you need exact matches. In many cases, you don’t have access to exact matches. So, let’s say you have a scene that shows zebras. You will probably not find a paired data set that shows exactly the same scene, but with horses. So, you cannot just use it with a conditional GAN.

您可以看到,仅通过使用条件GAN,我们就能生成真正复杂的图像。 现在,这里的一个关键问题当然是您需要将两个图像对齐。 因此,您的调节图像(如此处的边缘图像)必须与相应的手提包图像完全匹配。 如果他们不这样做,您将无法进行培训。 因此,对于使用条件GAN的域名翻译,您需要完全匹配。 在许多情况下,您无权访问完全匹配项。 因此,假设您有一个显示斑马的场景。 您可能不会找到显示完全相同的场景但有马的成对数据集。 因此,您不能仅将其与条件GAN一起使用。

CC BY 4.0 from the 深度学习讲座中 Deep Learning Lecture.CC BY 4.0下的图像。

The key ingredient, here, is the so-called cycle consistency loss. So, you couple GANs with trainable inverse mappings. The key idea here is that you have one conditional GAN that inputs x as the conditioning image and generates then some new output. If you take this new output and use it in the conditioning variable of F, it should produce x again. So, you use the conditioning variables to form a loop and the key component here is that G and F should be essentially inverses of each other.

此处的关键因素是所谓的循环一致性损失。 因此,您将GAN与可训练的逆映射结合在一起。 这里的关键思想是您有一个条件GAN,它输入x作为条件图像,然后生成一些新的输出。 如果采用此新输出并将其用于F的条件变量中,它将再次产生x 。 因此,您使用条件变量来形成循环,并且这里的关键部分是G和F本质上应该是彼此相反的。

CC BY 4.0 from the 深度学习讲座中 Deep Learning Lecture.CC BY 4.0下的图像。

So, if you take F(G(x)), you should end up with x again. Of course, also if you take G(F(y)) then you should end up with y again. This then gives rise to the following concepts: So, you take two generators and two discriminators, one GAN G is generating y from x. One GAN F is generating x from y. You still need two discriminators Dₓ and the discriminator Dᵧ. The Cycle GAN loss further has the consistency conditions as additions to the loss. Of course, you have the typical discriminator losses the original GAN losses for Dₓ and Dᵧ. They are, of course, coupled respectively with G and F. On top, you put this cycle consistency loss. The cycle consistency loss is a coupled loss that at the same time translates x to yand y to x again and makes sure that the zebra that is generated in y is still not recognized as fake by the discriminator. At the same time, you have the inverse cycle consistency which is then translating y into x using F and then x into y using G again while fooling the discriminator regarding x. So, you need the two discriminators. This then gives rise to the cyclic consistency loss that we have noted down for you here. You can, for example, use L1 norms and the expected values of those L1 norms to form specific identities. So, the total loss is then given as the GAN losses that we’ve already discussed earlier plus λ the cycle consistency loss.

因此,如果取F(G( x )),则应该再次以x结尾。 当然,如果您采用G(F( y )),那么您应该再次以y结尾。 这样就产生了以下概念:因此,您有两个生成器和两个鉴别器,一个GAN G从x生成y 。 一个GAN F正在从y生成x 。 您仍然需要两个鉴别符Dₓ和鉴别符Dᵧ。 Cycle GAN损耗还具有一致性条件作为损耗的补充。 当然,对于Dₓ和Dᵧ,典型的鉴别器损耗是原始GAN损耗。 当然,它们分别与G和F耦合。最重要的是,您将此循环一致性损失。 循环一致性损失是一个耦合损失,它同时将x转换为y ,又将y转换x ,并确保鉴别器仍不会将y中生成的斑马识别为伪造的。 同时,您具有逆循环一致性,然后使用F将y转换为x ,然后使用G再次将x转换为y ,同时愚弄关于x的鉴别符。 因此,您需要两个鉴别符。 这会导致周期性一致性损失,我们在这里已为您记录下来。 例如,您可以使用L1规范和这些L1规范的期望值来形成特定的标识。 因此,总损耗就是前面已经讨论过的GAN损耗加上λ周期一致性损耗。

CC BY 4.0 from the 深度学习讲座中 Deep Learning Lecture.CC BY 4.0下CycleGANs图像的示例。

So, this concept is fairly easy to grasp and I can tell you this has been widely applied. So, there are many many examples. You can translate from Monet to Photos, from zebras to horses, from summer to winter, and the respective inverse operations. If you couple this with more GANs and more cycle consistency losses, then you’re even able to take one photograph and translate it to Monet, Van Gogh, and other artists and have them represent a specific style.

因此,这个概念相当容易掌握,我可以告诉您这已被广泛应用。 因此,有很多例子。 您可以从“莫奈”到“照片”,从斑马到马,从夏天到冬天,以及相应的逆运算。 如果您将其与更多的GAN和更多的循环一致性损失结合使用,那么您甚至可以拍摄一张照片并将其翻译成Monet,Van Gogh和其他艺术家,并使它们代表特定的风格。

CC BY 4.0 from the 深度学习讲座中 Deep Learning Lecture.CC BY 4.0下的图像。

This is, of course, also interesting for autonomous driving where you then can for example input a scene and then generate different segmentation masks. So, you can also use it for image segmentation in this task. Here, we have an ablation study for the Cycle GAN where we show the Cycle alone, the GAN alone, the GAN plus forward loss, the GAN plus backward loss, and the complete Cycle GAN loss. You can see that with the Cycle GAN loss, you get much much better back and forth translations if you compare this to your respective ground truth.

当然,这对于自动驾驶也很有趣,在自动驾驶中您可以例如输入一个场景然后生成不同的分割蒙版。 因此,您也可以在此任务中将其用于图像分割。 在这里,我们对Cycle GAN进行了消融研究,其中显示了单独的Cycle,单独的GAN,GAN加上正向损耗,GAN加上向后损耗以及完整的GAN损耗。 您会发现,如果将Cycle GAN损失与自己的事实相比较,来回翻译会好得多。

CC BY 4.0 from the 深度学习讲座中 Deep Learning Lecture.CC BY 4.0下的图像。

Okay, there are a couple of more things to say about GANs and these are the advanced GAN concepts that we’ll talk about next time in deep learning. So, I hope you enjoyed this video and looking forward to seeing you in the next one. Good-bye!

好的,关于GAN还有很多要说的东西,这些是GAN的高级概念,我们下次将在深度学习中讨论。 因此,我希望您喜欢这个视频,并希望在下一个视频中见到您。 再见!

Cycle GANs make surgical training slightly more realistic. Image created using gifify. Source: YouTube
循环GAN使外科手术训练更加现实。 使用gifify创建的图像 。 资料来源: YouTube

If you liked this post, you can find more essays here, more educational material on Machine Learning here, or have a look at our Deep LearningLecture. I would also appreciate a follow on YouTube, Twitter, Facebook, or LinkedIn in case you want to be informed about more essays, videos, and research in the future. This article is released under the Creative Commons 4.0 Attribution License and can be reprinted and modified if referenced. If you are interested in generating transcripts from video lectures try AutoBlog.

如果你喜欢这篇文章,你可以找到这里更多的文章 ,更多的教育材料,机器学习在这里 ,或看看我们的深入 学习 讲座 。 如果您希望将来了解更多文章,视频和研究信息,也欢迎关注YouTube , Twitter , Facebook或LinkedIn 。 本文是根据知识共享4.0署名许可发布的 ,如果引用,可以重新打印和修改。 如果您对从视频讲座中生成成绩单感兴趣,请尝试使用AutoBlog 。

链接 (Links)

Link — Variational Autoencoders: Link — NIPS 2016 GAN Tutorial of GoodfellowLink — How to train a GAN? Tips and tricks to make GANs work (careful, noteverything is true anymore!) Link - Ever wondered about how to name your GAN?

链接 —可变自动编码器: 链接 — Goodfellow的NIPS 2016 GAN教程链接 —如何训练GAN? 使GAN正常工作的提示和技巧(小心,什么都没了!) 链接 -是否想知道如何命名GAN?

翻译自: https://towardsdatascience.com/unsupervised-learning-part-4-eeb4d3ab601

无监督学习 k-means


http://www.taodudu.cc/news/show-994791.html

相关文章:

  • 深度学习算法原理_用于对象检测的深度学习算法的基本原理
  • 软件本地化 pdf_软件本地化与标准翻译
  • 数据库不停机导数据方案_如何计算数据停机成本
  • python初学者_面向初学者的20种重要的Python技巧
  • 贝叶斯网络建模
  • 数据科学家数据分析师_使您的分析师和数据科学家在数据处理方面保持一致
  • python db2查询_如何将DB2查询转换为python脚本
  • 爱因斯坦提出的逻辑性问题_提出正确问题的重要性
  • 餐厅数据分析报告_如何使用数据科学选择理想的餐厅设计场所
  • 熊猫直播 使用什么sdk_没什么可花的-但是16项基本操作才能让您开始使用熊猫
  • 关系型数据库的核心单元是_核中的数据关系
  • 小程序 国际化_在国际化您的应用程序时忘记的一件事
  • robo 3t连接_使用robo 3t studio 3t连接到地图集
  • 软件需求规格说明书通用模版_通用需求挑战和机遇
  • 一类动词二类动词三类动词_基于http动词的完全无效授权技术
  • 一年了
  • 将DataSet中的操作更新到Access数据库
  • 我喜欢的一首歌--《幸福的瞬间》
  • XForum 里用 Filter 编程实现安全访问控制
  • chedandekaoyan
  • Microsoft好员工的十个标准
  • GARFIELD@11-20-2004
  • SPS用户管理的问题
  • 最近关注的一些东西
  • 吉他谱——单身情歌
  • 新增两款Skin(clover与Valentine)
  • 同一页面引入多个JS文件的编码问题
  • 中小企业的软件需求问题
  • 读《.NET本质论》样章有感
  • 域名与国家对应表

无监督学习 k-means_无监督学习-第4部分相关推荐

  1. 机器学习之无监督学习-K均值聚类算法

    机器学习之无监督学习-K均值聚类算法 对于无监督学习,有两类重要的应用,一个是聚类,一个是降维.我们今天主要学习聚类中的K均值聚类. 我们先看看下图,图a为原始的数据点,我们想要对图a的数据点进行分类 ...

  2. 无监督学习中的无监督特征学习、聚类和密度估计

    无监督学习概述 无监督学习(Unsupervised Learning)是指从无标签的数据中学习出一些有用的模式,无监督学习一般直接从原始数据进行学习,不借助人工标签和反馈等信息.典型的无监督学习问题 ...

  3. 监督学习和无监督学习_让半监督学习再次伟大!谷歌最新无监督数据增强研究,全面超越现有半监督学习方法...

      新智元报道   来源:GoogleAI 编辑:元子 [新智元导读]Google AI最新研究用无监督数据增强推进半监督学习,取得令人瞩目的成果.该方法超越了所有现有的半监督学习方法,并实现了仅使用 ...

  4. 艾美捷重组蛋白酶K,无动物源/AF化学性质介绍

    重组蛋白酶K,无动物源/AF背景: 蛋白酶K是一种丝氨酸蛋白酶,对脂肪族.芳香族和其他疏水性氨基酸具有广泛的特异性.PROK的分子量为27000道尔顿,并且依赖于Ca2+.它不被金属离子螯合剂如EDT ...

  5. 处理器有k和无k有什么区别?

    处理器有K和无K的区别? 关于这个问题很多人都不太明白,面对各种形形色色的处理器型号来说很多人头都大了,就目前来说桌面处理器基本上就英特尔和AMD独揽江山,而这两家总体来说英特尔的市场占有率要高于AM ...

  6. 【ML复习】什么是 监督学习,什么是 非监督学习?二者的区别是什么?列举常见的 监督学习算法 和 非监督学习算法。

    纯手打默写. 目录 一 (1)什么是监督学习?什么是非监督学习? (2)二者的区别? 一 (1)什么是监督学习?什么是非监督学习? 答:监督学习 就是训练集的数据已经分好了类别,通过对 带有标签的数据 ...

  7. 51单片机最完美数码管驱动,仿真无缺显,实物无鬼影,最高亮度无黯淡.

    51单片机最完美数码管驱动,仿真无缺显,实物无鬼影,最高亮度无黯淡 驱动程序https://blog.csdn.net/xianfajushi/article/details/89448933 #in ...

  8. Rust语言——无虚拟机、无垃圾收集器、无运行时、无空指针/野指针/内存越界/缓冲区溢出/段错误、无数据竞争...

    2006年,编程语言工程师Graydon Hoare利用业余时间启动了Rust语言项目.该项目充分借鉴了C/C++/Java/Python等语言的经验,试图在保持良好性能的同时,克服以往编程语言所存在 ...

  9. 自动开料机器人_工业4.0智能家具无人化生产线 自动化无人化大势所趋

    品脉数控工业4.0智能家具无人化生产线 自动化无人化大势所趋 工业4.0自动化生产连线 品脉数控紧随社会的前进步伐,数控积极响应国家智能制造2025号召,推动中国定制家具自动化革命,把板式家具生产智能 ...

  10. 无锁数据结构三:无锁数据结构的两大问题

    实现无锁数据结构最困难的两个问题是ABA问题和内存回收问题.它们之间存在着一定的关联:一般内存回收问题的解决方案,可以作为解决ABA问题的一种只需很少开销或者根本不需额外开销的方法,但也存在一些情况并 ...

最新文章

  1. 暴力枚举 UVA 725 Division
  2. python语言跨平台语言吗_python属于跨平台语言吗?
  3. 全局的过滤器, 进行时间的格式化——所谓的全局过滤器,就是所有的VM实例都共享的 || 如何自定义一个私有的过滤器(局部)
  4. 怎样使用计算机上的高级共享设置密码,win7系统电脑,如何设置共享,共享计算机的用户名和密码怎样设置...
  5. mysql管理员就业_MySQL管理员必备的十大工具盘点
  6. c++程序设计中虚基类,多继承知识点
  7. struts2解决动态多文件上传的问题(上传文件与数据库字段一一对应)(转)
  8. c语言编译器查错,C语言编译器的错误信息
  9. 代码之美~Lambda带给我们的不只是简洁
  10. 8客户端安装后无法启动_QQ下载几天后无法启动、无法运行——可能与火绒有关...
  11. 【002:带参宏调试】
  12. 第四届中国云计算大会——123
  13. 如何用atom编辑python_对于新手来说 如何用atom搭建python的ide?
  14. 中国地质大学计算机学院闫继宁,双吸离心泵内部流动模拟与输水管道系统安全问题研究...
  15. [技巧]深入了解强大的 ES6 「 ... 」 运算符
  16. 网易云评论 爬虫 java_网易云歌曲评论爬虫如何实现翻页?
  17. 0X00000000指令引用的0x00000000内存该内存不能为read或written
  18. 多线程----使用线程池爬取二手房信息
  19. 利用sklearn.cluster实现k均值聚类
  20. python爬虫爬取深交所数据

热门文章

  1. c++模板---1(模板概念,利用模板实现数组排序,函数模板调用规则)
  2. c++中的继承--2(继承中的析构函数和构造函数,继承中同名成员,继承中静态成员)
  3. Wormholes——Bellman-Ford判断负环
  4. Linux下的I/O复用与epoll详解(ET与LT)
  5. 【信号】函数kill、raise、abort、alarm
  6. idea中HTML可以打debug吗,Intellij IDEA中使用Debug调试
  7. MySQL安装板多少钱_MySQL安装板怎么安装
  8. 网页视频直播、微信视频直播技术解决方案:EasyNVR与EasyDSS流媒体服务器组合之区分不同场景下的直播接入需求...
  9. 软件工程——结对编程第二次作业
  10. 程序2:word count