作者丨DengBoCong@知乎

来源丨https://zhuanlan.zhihu.com/p/271911178

编辑丨极市平台

本文仅用于学术分享,如有侵权,请联系后台作删文处理。

本文打算讨论在深度学习中常用的十余种损失函数(含变种),结合PyTorch和TensorFlow2对其概念、公式及用途进行阐述,希望能达到看过的伙伴对各种损失函数有个大致的了解以及使用。本文对原理只是浅尝辄止,不进行深挖,感兴趣的伙伴可以针对每个部分深入翻阅资料。

使用版本:

  • TensorFlow2.3

  • PyTorch1.7.0

01 交叉熵损失(CrossEntropyLoss)

对于单事件的信息量而言,当事件发生的概率越大时,信息量越小,需要明确的是,信息量是对于单个事件来说的,实际事件存在很多种可能,所以这个时候熵就派上用场了,熵是表示随机变量不确定的度量,是对所有可能发生的事件产生的信息量的期望。交叉熵用来描述两个分布之间的差距,交叉熵越小,假设分布离真实分布越近,模型越好。

在分类问题模型中(不一定是二分类),如逻辑回归、神经网络等,在这些模型的最后通常会经过一个sigmoid函数(softmax函数),输出一个概率值(一组概率值),这个概率值反映了预测为正类的可能性(一组概率值反应了所有分类的可能性)。而对于预测的概率分布和真实的概率分布之间,使用交叉熵来计算他们之间的差距,换句不严谨的话来说,交叉熵损失函数的输入,是softmax或者sigmoid函数的输出。交叉熵损失可以从理论公式推导出几个结论(优点),具体公式推导不在这里详细讲解,如下:

  • 预测的值跟目标值越远时,参数调整就越快,收敛就越快;

  • 不会陷入局部最优解

交叉熵损失函数的标准形式(也就是二分类交叉熵损失)如下:

其中,  表示样本  的标签,正类为1,负类为0,  表示样本  预测为正的概率。

多分类交叉熵损失如下:

其中,  表示类别的数量,  表示变量(0或1),如果该类别和样本  的类别相同就是1,否则是0,  表示对于观测样本  属于类别  的预测概率。

Tensorflow:

  • BinaryCrossentropy[1]:二分类,经常搭配Sigmoid使用

tf.keras.losses.BinaryCrossentropy(from_logits=False, label_smoothing=0, reduction=losses_utils.ReductionV2.AUTO, name='binary_crossentropy')参数:  from_logits:默认False。为True,表示接收到了原始的logits,为False表示输出层经过了概率处理(softmax)  label_smoothing:[0,1]之间浮点值,加入噪声,减少了真实样本标签的类别在计算损失函数时的权重,最终起到抑制过拟合的效果。  reduction:传入tf.keras.losses.Reduction类型值,默认AUTO,定义对损失的计算方式。
  • binary_crossentropy[2]

tf.keras.losses.binary_crossentropy(y_true, y_pred, from_logits=False, label_smoothing=0)参数:  from_logits:默认False。为True,表示接收到了原始的logits,为False表示输出层经过了概率处理(softmax)  label_smoothing:[0,1]之间浮点值,加入噪声,减少了真实样本标签的类别在计算损失函数时的权重,最终起到抑制过拟合的效果。
  • CategoricalCrossentropy[3]:多分类,经常搭配Softmax使用

tf.keras.losses.CategoricalCrossentropy(from_logits=False, label_smoothing=0, reduction=losses_utils.ReductionV2.AUTO, name='categorical_crossentropy')参数:  from_logits:默认False。为True,表示接收到了原始的logits,为False表示输出层经过了概率处理(softmax)  label_smoothing:[0,1]之间浮点值,加入噪声,减少了真实样本标签的类别在计算损失函数时的权重,最终起到抑制过拟合的效果。  reduction:传入tf.keras.losses.Reduction类型值,默认AUTO,定义对损失的计算方式。
  • categorical_crossentropy[4]

tf.keras.losses.categorical_crossentropy(y_true, y_pred, from_logits=False, label_smoothing=0)参数:  from_logits:默认False。为True,表示接收到了原始的logits,为False表示输出层经过了概率处理(softmax)  label_smoothing:[0,1]之间浮点值,加入噪声,减少了真实样本标签的类别在计算损失函数时的权重,最终起到抑制过拟合的效果。
  • SparseCategoricalCrossentropy[5]:多分类,经常搭配Softmax使用,和CategoricalCrossentropy不同之处在于,CategoricalCrossentropy是one-hot编码,而SparseCategoricalCrossentropy使用一个位置整数表示类别

tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False, reduction=losses_utils.ReductionV2.AUTO, name='sparse_categorical_crossentropy')参数:  from_logits:默认False。为True,表示接收到了原始的logits,为False表示输出层经过了概率处理(softmax)  reduction:传入tf.keras.losses.Reduction类型值,默认AUTO,定义对损失的计算方式。
  • sparse_categorical_crossentropy[6]

tf.keras.losses.sparse_categorical_crossentropy(y_true, y_pred, from_logits=False, axis=-1)
参数:from_logits:默认False。为True,表示接收到了原始的logits,为False表示输出层经过了概率处理(softmax)axis:默认是-1,计算交叉熵的维度

PyTorch:

  • BCELoss[7]

torch.nn.BCELoss(weight: Optional[torch.Tensor] = None, size_average=None, reduce=None, reduction: str = 'mean')参数:  weight:每个分类的缩放权重,传入的大小必须和类别数量一至  size_average:bool类型,为True时,返回的loss为平均值,为False时,返回的各样本的loss之和  reduce:bool类型,返回值是否为标量,默认为True  reduction:string类型,'none' | 'mean' | 'sum'三种参数值
  • BCEWithLogitsLoss[8]:其实和TensorFlow是的`from_logits`参数很像,在BCELoss的基础上合并了Sigmoid

torch.nn.BCEWithLogitsLoss(weight: Optional[torch.Tensor] = None, size_average=None, reduce=None, reduction: str = 'mean', pos_weight: Optional[torch.Tensor] = None)参数:  weight:每个分类的缩放权重,传入的大小必须和类别数量一至  size_average:bool类型,为True时,返回的loss为平均值,为False时,返回的各样本的loss之和  reduce:bool类型,返回值是否为标量,默认为True  reduction:string类型,'none' | 'mean' | 'sum'三种参数值  pos_weight:正样本的权重, 当p>1,提高召回率,当p<1,提高精确度。可达到权衡召回率(Recall)和精确度(Precision)的作用。
  • CrossEntropyLoss[9]

torch.nn.CrossEntropyLoss(weight: Optional[torch.Tensor]= None, size_average=None, ignore_index: int = -100,
reduce=None, reduction: str = 'mean')参数:  weight:每个分类的缩放权重,传入的大小必须和类别数量一至  size_average:bool类型,为True时,返回的loss为平均值,为False时,返回的各样本的loss之和  ignore_index:忽略某一类别,不计算其loss,其loss会为0,并且,在采用size_average时,不会计算那一类的loss,除的时候的分母也不会统计那一类的样本  reduce:bool类型,返回值是否为标量,默认为True  reduction:string类型,'none' | 'mean' | 'sum'三种参数值

02 KL散度

我们在计算预测和真实标签之间损失时,需要拉近他们分布之间的差距,即模型得到的预测分布应该与数据的实际分布情况尽可能相近。KL散度(相对熵)是用来衡量两个概率分布之间的差异。模型需要得到最大似然估计,乘以负Log以后就相当于求最小值,此时等价于求最小化KL散度(相对熵)。所以得到KL散度就得到了最大似然。又因为KL散度中包含两个部分,第一部分是交叉熵,第二部分是信息熵,即KL=交叉熵−信息熵。信息熵是消除不确定性所需信息量的度量,简单来说就是真实的概率分布,而这部分是固定的,所以优化KL散度就是近似于优化交叉熵。下面是KL散度的公式:

联系上面的交叉熵,我们可以将公式简化为(KL散度 = 交叉熵 - 熵):

监督学习中,因为训练集中每个样本的标签是已知的,此时标签和预测的标签之间的KL散度等价于交叉熵。

TensorFlow:

  • KLD | kullback_leibler_divergence[10]

tf.keras.losses.KLD(y_true, y_pred)
  • KLDivergence[11]

tf.keras.losses.KLDivergence(reduction=losses_utils.ReductionV2.AUTO, name='kl_divergence')参数:  reduction:传入tf.keras.losses.Reduction类型值,默认AUTO,定义对损失的计算方式。

Pytorch:

  • KLDivLoss[12]

torch.nn.KLDivLoss(size_average=None, reduce=None, reduction: str = 'mean', log_target: bool = False)
参数:size_average:bool类型,为True时,返回的loss为平均值,为False时,返回的各样本的loss之和reduce:bool类型,返回值是否为标量,默认为Truereduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:meanlog_target:默认False,指定是否在日志空间中传递目标

03 平均绝对误差(L1范数损失)

L1范数损失函数,也被称为最小绝对值偏差(LAD),最小绝对值误差(LAE)。总的说来,它是把目标值  与估计值  的绝对差值的总和  最小化:

缺点:

  • 梯度恒定,不论预测值是否接近真实值,这很容易导致发散,或者错过极值点。

  • 导数不连续,导致求解困难。这也是L1损失函数不广泛使用的主要原因。

优点:

  • 收敛速度比L2损失函数要快,这是通过对比函数图像得出来的,L1能提供更大且稳定的梯度。

  • 对异常的离群点有更好的鲁棒性,下面会以例子证实。

TensorFlow:

  • MAE | mean_absolute_error[13]

tf.keras.losses.MAE(y_true, y_pred)
  • MeanAbsoluteError[14]

tf.keras.losses.MeanAbsoluteError(reduction=losses_utils.ReductionV2.AUTO, name='mean_absolute_error')参数:  reduction:传入tf.keras.losses.Reduction类型值,默认AUTO,定义对损失的计算方式。
  • MeanAbsolutePercentageError[15]:平均绝对百分比误差

tf.keras.losses.MeanAbsolutePercentageError(reduction=losses_utils.ReductionV2.AUTO, name='mean_absolute_percentage_error')公式:loss = 100 * abs(y_true - y_pred) / y_true参数:  reduction:传入tf.keras.losses.Reduction类型值,默认AUTO,定义对损失的计算方式。
  • MAPE | mean_absolute_percentage_error[16]:平均绝对百分比误差

tf.keras.losses.MAPE(y_true, y_pred)公式:loss = 100 * mean(abs((y_true - y_pred) / y_true), axis=-1)
  • Huber[17]

tf.keras.losses.Huber(delta=1.0, reduction=losses_utils.ReductionV2.AUTO, name='huber_loss')公式:error = y_true - y_pred参数:  delta:float类型,Huber损失函数从二次变为线性的点。  reduction:传入tf.keras.losses.Reduction类型值,默认AUTO,定义对损失的计算方式。

PyTorch:

  • L1Loss[18]

torch.nn.L1Loss(size_average=None, reduce=None, reduction: str = 'mean')
参数:size_average:bool类型,为True时,返回的loss为平均值,为False时,返回的各样本的loss之和reduce:bool类型,返回值是否为标量,默认为Truereduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean
  • l1_loss[19]

torch.nn.functional.l1_loss(input, target, size_average=None, reduce=None, reduction='mean')
  • SmoothL1Loss[20]:平滑版L1损失,也被称为 Huber 损失函数。

其中,当  时,  ,否则 

torch.nn.SmoothL1Loss(size_average=None, reduce=None, reduction: str = 'mean', beta: float = 1.0)参数:  size_average:bool类型,为True时,返回的loss为平均值,为False时,返回的各样本的loss之和  reduce:bool类型,返回值是否为标量,默认为True  reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean  beta:默认为1,指定在L1和L2损耗之间切换的阈值
  • smooth_l1_loss[21]

torch.nn.functional.smooth_l1_loss(input, target, size_average=None, reduce=None, reduction='mean', beta=1.0)

04 均方误差损失(L2范数损失)

L2范数损失函数,也被称为最小平方误差(LSE)。总的来说,它是把目标值  与估计值  的差值的平方和  最小化:

缺点:

  • 收敛速度比L1慢,因为梯度会随着预测值接近真实值而不断减小。

  • 对异常数据比L1敏感,这是平方项引起的,异常数据会引起很大的损失。

优点:

  • 它使训练更容易,因为它的梯度随着预测值接近真实值而不断减小,那么它不会轻易错过极值点,但也容易陷入局部最优。

  • 它的导数具有封闭解,优化和编程非常容易,所以很多回归任务都是用MSE作为损失函数。

TensorFlow:

  • MeanSquaredError[22]

tf.keras.losses.MeanSquaredError(reduction=losses_utils.ReductionV2.AUTO, name='mean_squared_error')
公式:loss = square(y_true - y_pred)
参数:reduction:传入tf.keras.losses.Reduction类型值,默认AUTO,定义对损失的计算方式。
  • MSE | mean_squared_error[23]

tf.keras.losses.MSE(y_true, y_pred)公式:loss = mean(square(y_true - y_pred), axis=-1)
  • MeanSquaredLogarithmicError[24]

tf.keras.losses.MeanSquaredLogarithmicError(reduction=losses_utils.ReductionV2.AUTO, name='mean_squared_logarithmic_error')
公式:loss = square(log(y_true + 1.) - log(y_pred + 1.))
参数:reduction:传入tf.keras.losses.Reduction类型值,默认AUTO,定义对损失的计算方式。
  • MSLE | mean_squared_logarithmic_error[25]

tf.keras.losses.MSLE(y_true, y_pred)
公式:loss = mean(square(log(y_true + 1) - log(y_pred + 1)), axis=-1)

PyTorch:

  • MSELoss[26]

torch.nn.MSELoss(size_average=None, reduce=None, reduction: str = 'mean')
参数:size_average:bool类型,为True时,返回的loss为平均值,为False时,返回的各样本的loss之和reduce:bool类型,返回值是否为标量,默认为Truereduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean
  • mse_loss[27]

torch.nn.functional.mse_loss(input, target, size_average=None, reduce=None, reduction='mean')

05 Hinge loss

有人把hinge loss称为铰链损失函数,它可用于“最大间隔(max-margin)”分类,其最著名的应用是作为SVM的损失函数。hinge loss专用于二分类问题,标签值  ,预测值  。二分类问题的目标函数的要求如下:当  大于等于  或者小于等于  时,都是分类器确定的分类结果,此时的损失函数loss为0。而当预测值  时,分类器对分类结果不确定,loss不为0。显然,当  时,loss达到最大值。对于输出  ,当前  的损失为:

扩展到多分类问题上就需要多加一个边界值,然后叠加起来。公式如下:

Tensorflow:

  • CategoricalHinge[28]

tf.keras.losses.CategoricalHinge(reduction=losses_utils.ReductionV2.AUTO, name='categorical_hinge')
公式:loss = maximum(neg - pos + 1, 0) where neg=maximum((1-y_true)*y_pred) and pos=sum(y_true*y_pred)
参数:reduction:传入tf.keras.losses.Reduction类型值,默认AUTO,定义对损失的计算方式。
  • categorical_hinge[29]

tf.keras.losses.categorical_hinge(y_true, y_pred)
公式:loss = maximum(neg - pos + 1, 0) where neg=maximum((1-y_true)*y_pred) and pos=sum(y_true*y_pred)
  • Hinge[30]

tf.keras.losses.Hinge(reduction=losses_utils.ReductionV2.AUTO, name='hinge'
)
公式:loss = maximum(1 - y_true * y_pred, 0),y_true值应为-1或1。如果提供了二进制(0或1)标签,会将其转换为-1或1
参数:reduction:传入tf.keras.losses.Reduction类型值,默认AUTO,定义对损失的计算方式。
  • hinge[31]

tf.keras.losses.hinge(y_true, y_pred)公式:loss = mean(maximum(1 - y_true * y_pred, 0), axis=-1)
  • SquaredHinge[32]

tf.keras.losses.SquaredHinge(    reduction=losses_utils.ReductionV2.AUTO, name='squared_hinge')公式:loss = square(maximum(1 - y_true * y_pred, 0)),y_true值应为-1或1。如果提供了二进制(0或1)标签,会将其转换为-1或1。参数:  reduction:传入tf.keras.losses.Reduction类型值,默认AUTO,定义对损失的计算方式。
  • squared_hinge[33]

tf.keras.losses.squared_hinge(y_true, y_pred)公式:loss = mean(square(maximum(1 - y_true * y_pred, 0)), axis=-1)

‍PyTorch:

  • HingeEmbeddingLoss[34]:当  时,  ,当  时, 

torch.nn.HingeEmbeddingLoss(margin: float = 1.0, size_average=None, reduce=None, reduction: str = 'mean')参数:  margin:float类型,默认为1.  size_average:bool类型,为True时,返回的loss为平均值,为False时,返回的各样本的loss之和  reduce:bool类型,返回值是否为标量,默认为True  reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean

06 余弦相似度

余弦相似度是机器学习中的一个重要概念,在Mahout等MLlib中有几种常用的相似度计算方法,如欧氏相似度,皮尔逊相似度,余弦相似度,Tanimoto相似度等。其中,余弦相似度是其中重要的一种。余弦相似度用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小。相比距离度量,余弦相似度更加注重两个向量在方向上的差异,而非距离或长度上。

余弦相似度更多的是从方向上区分差异,而对绝对的数值不敏感,更多的用于使用用户对内容评分来区分用户兴趣的相似度和差异,同时修正了用户间可能存在的度量标准不统一的问题(因为余弦相似度对绝对数值不敏感),公式如下:

Tensorflow:

  • CosineSimilarity[35]:请注意,所得值是介于-1和0之间的负数,其中0表示正交性,而接近-1的值表示更大的相似性。如果y_true或y_pred是零向量,则余弦相似度将为0,而与预测值和目标值之间的接近程度无关。

tf.keras.losses.CosineSimilarity(axis=-1, reduction=losses_utils.ReductionV2.AUTO, name='cosine_similarity')公式:loss = -sum(l2_norm(y_true) * l2_norm(y_pred))参数:  axis:默认-1,沿其计算余弦相似度的维  reduction:传入tf.keras.losses.Reduction类型值,默认AUTO,定义对损失的计算方式。
  • cosine_similarity[36]

tf.keras.losses.cosine_similarity(y_true, y_pred, axis=-1)公式:loss = -sum(l2_norm(y_true) * l2_norm(y_pred))参数:  axis:默认-1,沿其计算余弦相似度的维

PyTorch:

  • CosineEmbeddingLoss[37]:当  时,  ,当  时, 

torch.nn.CosineEmbeddingLoss(margin: float = 0.0, size_average=None, reduce=None, reduction: str = 'mean')参数:  margin:float类型,应为-1到1之间的数字,建议为0到0.5,默认值为0  size_average:bool类型,为True时,返回的loss为平均值,为False时,返回的各样本的loss之和  reduce:bool类型,返回值是否为标量,默认为True  reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean

7 总结

上面这些损失函数是我们在日常中经常使用到的,我将TensorFlow和PyTorch相关的API都贴出来了,也方便查看,可以作为一个手册文章,需要的时候点出来看一下。还有一些其他的损失函数,后续也会都加进来。

外链地址:

[1] https://www.tensorflow.org/api_docs/python/tf/keras/losses/BinaryCrossentropy

[2] https://www.tensorflow.org/api_docs/python/tf/keras/losses/binary_crossentropy

[3] https://www.tensorflow.org/api_docs/python/tf/keras/losses/CategoricalCrossentropy

[4] https://www.tensorflow.org/api_docs/python/tf/keras/losses/categorical_crossentropy

[5] https://www.tensorflow.org/api_docs/python/tf/keras/losses/SparseCategoricalCrossentropy

[6] https://www.tensorflow.org/api_docs/python/tf/keras/losses/sparse_categorical_crossentropy

[7] https://pytorch.org/docs/stable/generated/torch.nn.BCELoss.html

[8] https://pytorch.org/docs/stable/generated/torch.nn.BCEWithLogitsLoss.html

[9] https://pytorch.org/docs/stable/generated/torch.nn.CrossEntropyLoss.html

[10] https://www.tensorflow.org/api_docs/python/tf/keras/losses/KLD

[11] https://www.tensorflow.org/api_docs/python/tf/keras/losses/KLDivergence

[12] https://pytorch.org/docs/stable/generated/torch.nn.KLDivLoss.html

[13] https://www.tensorflow.org/api_docs/python/tf/keras/losses/MAE

[14] https://www.tensorflow.org/api_docs/python/tf/keras/losses/MeanAbsoluteError

[15] https://www.tensorflow.org/api_docs/python/tf/keras/losses/MeanAbsolutePercentageError

[16] https://www.tensorflow.org/api_docs/python/tf/keras/losses/MAPE

[17] https://www.tensorflow.org/api_docs/python/tf/keras/losses/Huber

[18] https://pytorch.org/docs/stable/generated/torch.nn.L1Loss.html

[19] https://pytorch.org/docs/stable/nn.functional.html?highlight=loss#torch.nn.functional.l1_loss

[20] https://pytorch.org/docs/stable/generated/torch.nn.SmoothL1Loss.html

[21] https://pytorch.org/docs/stable/nn.functional.html?highlight=loss#torch.nn.functional.smooth_l1_loss

[22] https://www.tensorflow.org/api_docs/python/tf/keras/losses/MeanSquaredError

[23] https://www.tensorflow.org/api_docs/python/tf/keras/losses/MSE

[24] https://www.tensorflow.org/api_docs/python/tf/keras/losses/MeanSquaredLogarithmicError

[25] https://www.tensorflow.org/api_docs/python/tf/keras/losses/MSLE

[26] https://pytorch.org/docs/stable/generated/torch.nn.MSELoss.html

[27] https://pytorch.org/docs/stable/nn.functional.html?highlight=loss#torch.nn.functional.mse_loss

[28] https://www.tensorflow.org/api_docs/python/tf/keras/losses/CategoricalHinge

[29] https://www.tensorflow.org/api_docs/python/tf/keras/losses/categorical_hinge

[30] https://www.tensorflow.org/api_docs/python/tf/keras/losses/Hinge

[31] https://www.tensorflow.org/api_docs/python/tf/keras/losses/hinge

[32] https://www.tensorflow.org/api_docs/python/tf/keras/losses/SquaredHinge

[33] https://www.tensorflow.org/api_docs/python/tf/keras/losses/squared_hinge

[34] https://pytorch.org/docs/stable/generated/torch.nn.HingeEmbeddingLoss.html

[35] https://www.tensorflow.org/api_docs/python/tf/keras/losses/CosineSimilarity

[36] https://www.tensorflow.org/api_docs/python/tf/keras/losses/cosine_similarity

[37] https://pytorch.org/docs/stable/generated/torch.nn.CosineEmbeddingLoss.html

觉得有用麻烦给个在看啦~  

损失函数理解汇总,结合PyTorch1.7和TensorFlow2相关推荐

  1. 损失函数理解汇总,结合PyTorch和TensorFlow2

    点击下方标题,迅速定位到你感兴趣的内容 前言 交叉熵损失(CrossEntropyLoss) KL散度 平均绝对误差(L1范数损失) 均方误差损失(L2范数损失) Hinge loss 余弦相似度 前 ...

  2. 收藏 | 损失函数理解汇总,结合PyTorch1.7和TensorFlow2

    点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:极市平台 AI博士笔记系列推荐 周志华<机器学习> ...

  3. 贝叶斯分类器期望损失函数理解及衍生的全新理解

    期望损失函数之所以难以理解是因为定性思维认为它是一个损失函数:一是x固定的情况下,怎么还有这么多种可能:这好理解,多分类输出就是概率向量值,对应每个类别的概率:二是怎么没有真实样本的标签:因为这个函数 ...

  4. 高斯混合模型理解汇总

    https://blog.csdn.net/weixin_42555080/article/details/92222665 高斯混合模型终极理解 https://blog.csdn.net/lin_ ...

  5. pix2pix损失函数理解(精)

    下面分为生成器和鉴别器的损失函数分别进行说明: 1.生成器(generator)的损失函数:生成器的损失函数由对抗损失和像素损失构成. def backward_G(self):"" ...

  6. cycleGAN的整体架构+损失函数理解

    另外,我们引入了两个判别函数: 用于区分{x} 与 {F(y)} 的 Dx 用于区分{y} 与 {G(x)} 的 Dy . 我们的构建的模型包含两类组件(Our objective contains ...

  7. 机器学习--LR逻辑回归与损失函数理解

    损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好.损失函数是经验 ...

  8. 【IoU loss】IoU损失函数理解

    文章目录 1 引言 2 问题分析 3 IoU Loss 4 代码演示IoU 5 感谢链接 1 引言 目标检测任务的损失函数由Classificition Loss和Bounding Box Reger ...

  9. 非隔离开关电源相关知识理解汇总

    思维导图 一.概念理解 1.开关电源: 顾名思义,开关电源就是利用电子开关器件(如晶体管.场效应管.可控硅闸流管等),通过控制电路,使电子开关器件不停地"接通"和"关断& ...

最新文章

  1. 一个基于POI的通用excel导入导出工具类的简单实现及使用方法
  2. laravel ajax login,设置在ajax上记住laravel登录
  3. centos 6.5 启动时卡在进度条位置无法进入系统解决办法。
  4. 宅男程序员给老婆的计算机课程之8:控制器
  5. php mysql 连接方法 对比_Mysql实例php连接MySQL的两种方式对比
  6. 矩阵键盘程序_独立按键与矩阵按键
  7. Docker 入门使用 (二)
  8. 什么是JDK,什么是JRE?JDK的安装和环境变量的配置
  9. 必备收藏 | 超详细揭秘 Redis 持久化,建议收藏!
  10. python3 安装opencv_树莓派安装Python3的OpenCV
  11. 敏感词在线检测工具-免费敏感词在线检测工具
  12. MIPI DSI协议笔记
  13. 献给不知道自己该干什么的朋友—值得一看
  14. linux(ubuntu)系统什么叫:桌面管理器,窗口管理器?
  15. 揭秘苹果内购的大漏洞和内购订阅的黑陷阱
  16. 如何打开.pdm文件(Mac OS X)
  17. 软件“生命”系统进化论——软件以负熵为生
  18. 湖南中医药大学成考2022年下学期网络课程学习与考试工作安排
  19. android 人生日历,人生日历安卓版
  20. 怎样将WPS文件转换成Word文档

热门文章

  1. Task04:青少年软件编程(Scratch)等级考试模拟卷(一级)
  2. 用 Python 画圣诞树的 N 种玩法
  3. 4000字,详解 Python 操作 MySQL 数据库!
  4. 使用卷积神经网络预防疲劳驾驶事故
  5. 创新工场论文入选NeurIPS 2019,研发最强“AI蒙汗药”
  6. 阿里AI摘图像识别竞赛WebVision桂冠,万物识别准确率创世界纪录
  7. 一文看尽目标检测:从YOLO v1到v3的进化之路
  8. 关于Java 获取时间戳的方法,我和同事争论了半天
  9. IntelliJ IDEA 2021.3.2 发布:告别不断建议安装xx插件的提示!
  10. 昨天,JetBrains 推出“下一代 IDE”,快看有哪些值得期待的功能!