pix2pix损失函数理解(精)
下面分为生成器和鉴别器的损失函数分别进行说明:
1.生成器(generator)的损失函数:生成器的损失函数由对抗损失和像素损失构成。
def backward_G(self):"""Calculate GAN and L1 loss for the generator"""# 1.对抗损失,G(A) should fake the discriminatorfake_AB = torch.cat((self.real_A, self.fake_B), 1)pred_fake = self.netD(fake_AB)self.loss_G_GAN = self.criterionGAN(pred_fake, True)# 2.像素损失,G(A) = Bself.loss_G_L1 = self.criterionL1(self.fake_B, self.real_B) * self.opt.lambda_L1# combine loss and calculate gradientsself.loss_G = self.loss_G_GAN + self.loss_G_L1self.loss_G.backward()
(2)判别器的损失函数: pix2pix中判别器的损失与cGAN相同。
def backward_D(self):"""Calculate GAN loss for the discriminator"""# Fake; 后半部分,stop backprop to the generator by detaching fake_Bfake_AB = torch.cat((self.real_A, self.fake_B), 1) # we use conditional GANs; we need to feed both input and output to the discriminatorpred_fake = self.netD(fake_AB.detach())self.loss_D_fake = self.criterionGAN(pred_fake, False)# Real:前半部分real_AB = torch.cat((self.real_A, self.real_B), 1)pred_real = self.netD(real_AB)self.loss_D_real = self.criterionGAN(pred_real, True)# combine loss and calculate gradientsself.loss_D = (self.loss_D_fake + self.loss_D_real) * 0.5self.loss_D.backward()
Pix2pix-两个领域匹配图像的转换 - 简书
pix2pix损失函数理解(精)相关推荐
- 贝叶斯分类器期望损失函数理解及衍生的全新理解
期望损失函数之所以难以理解是因为定性思维认为它是一个损失函数:一是x固定的情况下,怎么还有这么多种可能:这好理解,多分类输出就是概率向量值,对应每个类别的概率:二是怎么没有真实样本的标签:因为这个函数 ...
- 第十诫:在规则中理解精意
不是凭着字句,乃是凭着精意.因为那字句是叫人死,精意是叫人活. <哥林多后书> 3:6 这是一个充满规则的世界.有形的和无形的规则,看得见的和看不见的规则,几乎渗透了这个世界的每一个角落, ...
- 损失函数理解汇总,结合PyTorch1.7和TensorFlow2
作者丨DengBoCong@知乎 来源丨https://zhuanlan.zhihu.com/p/271911178 编辑丨极市平台 本文仅用于学术分享,如有侵权,请联系后台作删文处理. 本文打算讨论 ...
- cycleGAN的整体架构+损失函数理解
另外,我们引入了两个判别函数: 用于区分{x} 与 {F(y)} 的 Dx 用于区分{y} 与 {G(x)} 的 Dy . 我们的构建的模型包含两类组件(Our objective contains ...
- 收藏 | 损失函数理解汇总,结合PyTorch1.7和TensorFlow2
点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:极市平台 AI博士笔记系列推荐 周志华<机器学习> ...
- 机器学习--LR逻辑回归与损失函数理解
损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好.损失函数是经验 ...
- 【IoU loss】IoU损失函数理解
文章目录 1 引言 2 问题分析 3 IoU Loss 4 代码演示IoU 5 感谢链接 1 引言 目标检测任务的损失函数由Classificition Loss和Bounding Box Reger ...
- 损失函数理解汇总,结合PyTorch和TensorFlow2
点击下方标题,迅速定位到你感兴趣的内容 前言 交叉熵损失(CrossEntropyLoss) KL散度 平均绝对误差(L1范数损失) 均方误差损失(L2范数损失) Hinge loss 余弦相似度 前 ...
- 【Smooth L1 Loss】Smooth L1损失函数理解
文章目录 1 引言 2 L1 Loss 3 L2 Loss 4 Smooth L1 Loss 5 曲线对比分析 6 参考链接 1 引言 目标检测任务的损失函数由Classificition Loss和 ...
最新文章
- 以金山界面库(openkui)为例思考和分析界面库的设计和实现——问题
- CNN可视化最新研究方法进展(附结构、算法)
- linux 系统日志路径作用 简介
- 秩、标量、矢量、矩阵
- tensorflow随笔-条件语句-tf.cond
- ie打开完成,网页显示空白
- Halcon图像增强方法与原理概述
- python做审计底稿视频_最新Python教学视频,每天自学俩小时,让你offer拿到手软...
- Opencv之Vs编译
- ftp匿名登录_flashfxp4,flashfxp4简介及好用的FTP工具
- 什么是面向对象对象,什么是面向过程,什么是面向对象思想。
- 基于Jtopo的网络拓扑编辑器初探
- 番茄助手功能及快捷键
- 块引用—Markdown极简入门教程(6)
- Pytorch拟合心形函数
- 50句哲理 语录(二)
- SpringBoot Mybatis 读写分离配置(山东数漫江湖)
- 首发速学——腾讯云数据库TDSQL(PostgreSQL版)训练营正式开营
- MBTI职业性格测试和大五人格测试对比分析
- 用 Python 将 matplotlib 图表集成到 PDF 中
热门文章
- 阿里巴巴AI智能专场:整理分享
- 数据结构基础(6) --顺序栈的设计与实现
- Linux常用命令(第二版) --系统开关机命令
- Vue学习笔记(3)(Vue CLI)
- 同步函数与同步代码块的区别
- MappingException:class com.zsn.crm.Model.user not found whie looking for property user id
- 【译文练习】ReactiveCocoa概要:了解和使用RACCommand
- 同一master,两个slave的server_id相同问题处理
- HashMap 排序
- Mac下Git项目使用的.gitignore文件