衡量一个模型的好坏,首先需要确定指标体系,目前常用的指标有如下几个。
记住提到准确率是accuracy
提到精确率或者精度是Precision

机器学习评价指标

  • 1 指标释义
    • 1.1 混淆矩阵 (Confusion Matrix)
    • 1.2 准确率(accuracy)
    • 1.3 精确率=查准率(Precision)与查全率=召回率(Recall)
      • 1.3.1 例题1理解精确率和召回率
      • 1.3.2 例题2理解精确率和召回率
      • 1.3.3 多分类例题
      • 1.3.4 在目标检测中的应用举例
    • 1.4 F score
    • 1.5 PR曲线(Precision-recall 曲线)
    • 1.6平均精度(Average-Precision,AP)与 mean Average Precision(mAP)
    • 1.7ROC曲线
      • 1.7.1 PR曲线和ROC曲线比较
    • 1.8AUC
    • 1.9 IOU
    • 1.10 MIOU平均交并比
    • 1.11 PA:像素准确率
    • 1.12 CPA:类别像素准确率
    • 1.13 MPA:类别平均像素准确率
    • 1.14 均方根误差
    • 1.15 [Kappa系数](https://blog.csdn.net/wang7807564/article/details/80252362)
    • 1.16 [马修斯相关系数(Matthews correlation coefficient)](https://blog.csdn.net/Winnycatty/article/details/82972902)
  • 2 分类
    • 2.1 不平衡数据分类
  • 3 目标检测
  • 4 语义分割
  • 5 单个指标的局限性
  • 6 回归
  • 7 sklearn.metrics中实现评价指标
  • 8 参考资料

1 指标释义

1.1 混淆矩阵 (Confusion Matrix)

混淆矩阵中的横轴是模型预测的类别数量统计,纵轴是数据真实标签的数量统计。
混淆矩阵就是统计分类模型的分类结果,即:统计归对类,归错类的样本的个数,然后把结果放在一个表里展示出来,这个表就是混淆矩阵

对角线,表示模型预测和数据标签一致的数目,所以对角线之和除以测试集总数就是准确率。对角线上数字越大越好,在可视化结果中颜色越深,说明模型在该类的预测准确率越高。如果按行来看,每行不在对角线位置的就是错误预测的类别。总的来说,我们希望对角线越高越好,非对角线越低越好。

                   表1 多分类的混淆矩阵


表2 二分类的混淆矩阵

T:True , F:False ;T和F表示模型预测的结果是对的还是错的,前面是T说明预测对了,前面是F表示预测错了

P:positive,N:negative,P和N表示的预测结果,预测为正例还是反例。

TP(True Positive):真正例,实际是正例,模型预测为正例;
TN(True Negative):真反例,实际是反例,模型预测为反例;
FP(False Positive):假正例,实际是反例,模型预测为正例;
FN(False Negative):假反例,实际是正例,模型预测为反例;

口诀:对角全为对,横看是真实,竖看是预测

1.2 准确率(accuracy)

(1)分对的样本数除以所有的样本数 ,即:准确(分类)率 = 正确预测的正反例数 / 总数。

(2)在图像分类中就是几张图像分类对了,在语义分割中就是几个像素对了。

(3)准确率(Accuracy),对应:语义分割的像素准确率 PA
公式:Accuracy = (TP + TN) / (TP + TN + FP + FN)

1.3 精确率=查准率(Precision)与查全率=召回率(Recall)

精确率就是查准率
Precision表示查准率,为真阳性样本数量与所有被分类为阳性的样本的数量的比值,模型预测出为正例中实际也为正例所占的比例。
比如模型预测出10个飞机,其中8个预测对了,精确率就是0.8.

Precision = TP / (TP + FP)

召回率就是查全率
Recall表示查全率,为真阳性样本数量与样本集中全部阳性样本的数量的比值,实际为正例中模型正确预测出为正例所占的比例
Recall = TP / (TP + FN)
比如实际上有10个飞机的图片,模型预测出6个为飞机,4个为鸟,那召回率就是6/10=0.6

精确率和召回率的区别就是:
前者以预测结果中正例个数为分母,后者从实际样本中正例个数为分母。

(注意:分子相同。)

1.3.1 例题1理解精确率和召回率

假如:宠物店有10只动物,其中6只狗,4只猫(真实值),现有一个模型将这10只动物进行分类,分类结果为(预测结果为):6只狗中预测出了5只狗,1只猫,4只猫预测出了4只猫(预测值),对分类结果画出对应混淆矩阵进行分析(狗:正例,类别1,猫:反例,类别2):

准确率(Accuracy),对应:语义分割的像素准确率 PA
公式:Accuracy = (TP + TN) / (TP + TN + FP + FN)
意义:对角线计算。预测结果中正确的占总预测值的比例(对角线元素值的和 / 总元素值的和)
精准率(Precision),对应:语义分割的类别像素准确率 CPA
公式:Precision = TP / (TP + FP) 或 TN / (TN + FN)
意义:竖着计算。预测结果中,某类别预测正确的概率
召回率(Recall),不对应语义分割常用指标
公式:Recall = TP / (TP + FN) 或 TN / (TN + FP)
意义:横着计算。真实值中,某类别被预测正确的概率

准确率:
Accuracy = ( 5 +4 ) / (5 +4 + 0 + 1) = 0.9
精准率:
类别1(狗):P1 = 5 / (5 + 0) = 1
类别2(猫):P2 = 4 / (4 + 1) = 0.8
召回率
类别1(狗):R1 = 5 / (5 + 1) = 0.83
类别2(猫):R2 = 4 / (4 + 0) = 1

1.3.2 例题2理解精确率和召回率

假如:宠物店有10只动物,其中6只狗,4只猫(真实值),现有一个模型将这10只动物进行分类,分类结果为(预测结果为):6只狗中预测出了5只狗,1只猫,4只猫预测出了1只狗,3只猫(预测值),对分类结果画出对应混淆矩阵进行分析(狗:正例,类别1,猫:反例,类别2):

准确率:
Accuracy = ( 5 +3) / (5 +3 + 1 + 1) = 0.8
精准率:
类别1(狗):P1 = 5 / (5 + 1) = 0.83
类别2(猫):P2 = 3 / (3 + 1) = 0.75
召回率
类别1(狗):R1 = 5 / (5 + 1) = 0.83
类别2(猫):R2 = 3 / (3 + 1) = 0.75

1.3.3 多分类例题

列举一个多分类(三类别)泛化一下知识点,防止读者学习过拟合!

以类别1为例,计算公式为:

准确率:Accuracy = (a + e + i) / (a + b + c + d + e +f + g + h + i)
精准率:P1 = a / (a + d + g)
召回率:R1 = a / (a + b + c)

参考资料:
https://blog.csdn.net/sinat_29047129/article/details/103642140?utm_medium=distribute.pc_relevant_bbs_down.none-task–2alltop_clickdefault-1.nonecase&depth_1-utm_source=distribute.pc_relevant_bbs_down.none-task–2alltop_clickdefault-1.nonecase

1.3.4 在目标检测中的应用举例


如图所示,蓝色的框是 真实框。绿色和红色的框是 预测框,绿色的框是正样本,红色的框是负样本。一般来讲,当预测框和真实框IOU>=0.5时,被认为是正样本。
因此对于这幅图来讲。
真实框一共有3个,正样本一共有2个,负样本一共有2个。
此时

1.4 F score

用于综合评价Precision和Recall,

F1-Score = 2 * Precision * Recall / (Precision + Recall)

1.5 PR曲线(Precision-recall 曲线)

PR曲线就是Precision-recall 曲线
改变分类识别的阈值(例如,识别分类准确的阀值,0.9, 0.8, 0.7, …, 0.1。分类预测概率大于0.9或0.8等,则认为是分类正确)。把预测结果按照分类预测得分进行排序(比如softmax的值),按照阈值的变化去识别分类的正确性,这样会使得Precision与Recall值发生变化,从而得到PR曲线。**PR曲线比较关注于正样本的情况。**因为就没有看负样本,一个类别对应一条曲线,比如小鸟和飞机二分类中,
飞机的precision(精准率)和recall(召回率)可以得到一条PR曲线,
小鸟的precision(精准率)和recall(召回率)可以得到一条PR曲线,
两者必须对应两条曲线,而不是一条就可以,一条曲线只能代表一类。

PR曲线实则是以precision(精准率)和recall(召回率)这两个为变量而做出的曲线,其中recall为横坐标,precision为纵坐标
接下来补充一个重点:
一条PR曲线要对应一个阈值。通过选择合适的阈值,比如50%,对样本进行划分,概率大于50%的就认为是正例,小于50%的就是负例,从而计算相应的精准率和召回率。

举个例子如下:(true这列表示正例或者负例,hyp这列表示阈值0.5的情况下,概率是否大于0.5)

那么根据这个表格我们可以计算:TP=6,FN=0,FP=2,TN=2。故recall=6/(6+0)=1,precison=6/(6+2)=0.75,那么得出坐标(1,0.75)。同理得到不同阈下的坐标,即可绘制出曲线。
上面阈值为0.5得到了一个坐标点,那阈值为0.1,0.2,0.3,0.4,0.7,0.8等都可以得到一些点,最后就可以得到这条曲线。

当我们取不同的置信度,可以获得不同的Precision和不同的Recall,当我们取得置信度够密集的时候,就可以获得非常多的Precision和Recall。
置信度就是阈值

PR曲线如下:


如何判别好坏:
如果一个学习器的P-R曲线被另一个学习器的P-R曲线完全包住,则可断言后者的性能优于前者,例如上面的A和B优于学习器C。但是A和B的性能无法直接判断,我们可以根据曲线下方的面积大小来进行比较,但更常用的是平衡点或者是F1值。平衡点(BEP)是P=R时的取值,如果这个值较大,则说明学习器的性能较好。而F1 = 2 * P * R /( P + R ),同样,F1值越大,我们可以认为该学习器的性能较好。

如果一个分类器的性能比较好,那么它应该有如下的表现:在Recall值增长的同时,Precision的值保持在一个很高的水平。而性能比较差的分类器可能会损失很多Precision值才能换来Recall值的提高。通常情况下,文章中都会使用Precision-recall曲线,来显示出分类器在Precision与Recall之间的权衡。

参考资料:
链接:https://www.jianshu.com/p/ac46cb7e6f87

1.6平均精度(Average-Precision,AP)与 mean Average Precision(mAP)

AP就是Precision-recall 曲线下面的面积,通常来说一个越好的分类器,AP值越高,相当于对不同分类识别的阈值下的Precision,取均值。

mAP是多个类别AP的平均值。这个mean的意思是对每个类的AP再求平均,得到的就是mAP的值,mAP的大小一定在[0,1]区间,越大越好。该指标是目标检测算法中最重要的一个。

在正样本非常少的情况下,PR表现的效果会更好。
  

参考资料:
https://blog.csdn.net/weixin_44791964/article/details/104695264

1.7ROC曲线

ROC曲线的横坐标为假正率( FPR,FPR = FP / [ FP + TN]),表示负样本中错误预测为正样本的概率。纵坐标为真正率(TPR,TPR = TP / [ TP + FN]),表示正样本中预测正确的概率。根据分类识别的阈值,可生成不同的FPR值和TPR值,用于绘制ROC曲线。曲线越接近左上角越好。ROC曲线兼顾了正,负样本常用于分类器的评价指标。

有了前面的PR的铺垫,ROC曲线就会更好理解了。
在ROC曲线中,横轴是假正例率(FPR),纵轴是真正例率(TPR)。
(1)真正类率(True Postive Rate)TPR: TP/(TP+FN),代表分类器预测的正类中实际正实例占所有正实例的比例。
(2)负正类率(False Postive Rate)FPR: FP/(FP+TN),代表分类器预测的正类中实际负实例占所有负实例的比例。
我们可以发现:TPR=Recall。
ROC曲线也需要相应的阈值才可以进行绘制,原理同上的PR曲线。

下图为ROC曲线示意图,因现实任务中通常利用有限个测试样例来绘制ROC图,因此应为无法产生光滑曲线,如右图所示。


绘图过程:给定m个正例子,n个反例子,根据学习器预测结果进行排序,先把分类阈值设为最大,使得所有例子均预测为反例,此时TPR和FPR均为0,在(0,0)处标记一个点,再将分类阈值依次设为每个样例的预测值,即依次将每个例子划分为正例。设前一个坐标为(x,y),若当前为真正例,对应标记点为(x,y+1/m),若当前为假正例,则标记点为(x+1/n,y),然后依次连接各点。

ROC曲线图中的四个点
第一个点:(0,1),即FPR=0, TPR=1,这意味着FN=0,并且FP=0。这是完美的分类器,它将所有的样本都正确分类。
第二个点:(1,0),即FPR=1,TPR=0,类似地分析可以发现这是一个最糟糕的分类器,因为它成功避开了所有的正确答案。
第三个点:(0,0),即FPR=TPR=0,即FP=TP=0,可以发现该分类器预测所有的样本都为负样本(negative)。
第四个点:(1,1),分类器实际上预测所有的样本都为正样本。经过以上的分析,ROC曲线越接近左上角,该分类器的性能越好。

一个对比:

1.7.1 PR曲线和ROC曲线比较

ROC曲线特点:

(1)优点:当测试集中的正负样本的分布变化的时候,ROC曲线能够保持不变。因为TPR聚焦于正例,FPR聚焦于与负例,使其成为一个比较均衡的评估方法。

在实际的数据集中经常会出现类不平衡(class imbalance)现象,即负样本比正样本多很多(或者相反),而且测试数据中的正负样本的分布也可能随着时间变化。

(2)缺点:上文提到ROC曲线的优点是不会随着类别分布的改变而改变,但这在某种程度上也是其缺点。因为负例N增加了很多,而曲线却没变,这等于产生了大量FP。像信息检索中如果主要关心正例的预测准确性的话,这就不可接受了。在类别不平衡的背景下,负例的数目众多致使FPR的增长不明显,导致ROC曲线呈现一个过分乐观的效果估计。ROC曲线的横轴采用FPR,根据FPR ,当负例N的数量远超正例P时,FP的大幅增长只能换来FPR的微小改变。结果是虽然大量负例被错判成正例,在ROC曲线上却无法直观地看出来。(当然也可以只分析ROC曲线左边一小段)

PR曲线:

(1)PR曲线使用了Precision,因此PR曲线的两个指标都聚焦于正例。类别不平衡问题中由于主要关心正例,所以在此情况下PR曲线被广泛认为优于ROC曲线。

使用场景:
1、ROC曲线由于兼顾正例与负例,所以适用于评估分类器的整体性能,相比而言PR曲线完全聚焦于正例。
2、如果有多份数据且存在不同的类别分布,比如信用卡欺诈问题中每个月正例和负例的比例可能都不相同,这时候如果只想单纯地比较分类器的性能且剔除类别分布改变的影响,则ROC曲线比较适合,因为类别分布改变可能使得PR曲线发生变化时好时坏,这种时候难以进行模型比较;反之,如果想测试不同类别分布下对分类器的性能的影响,则PR曲线比较适合。
3、如果想要评估在相同的类别分布下正例的预测情况,则宜选PR曲线。
类别不平衡问题中,ROC曲线通常会给出一个乐观的效果估计,所以大4、部分时候还是PR曲线更好。
5、最后可以根据具体的应用,在曲线上找到最优的点,得到相对应的precision,recall,f1 score等指标,去调整模型的阈值,从而得到一个符合具体应用的模型。

参考资料:
链接:https://www.jianshu.com/p/ac46cb7e6f87
https://www.cnblogs.com/eilearn/p/9071440.html

1.8AUC

AUC只能用来评价二分类
AUC非常适合评价样本不平衡中的分类器性能

AUC (Area under Curve):ROC曲线下的面积,介于0.1和1之间,作为数值可以直观的评价分类器的好坏,值越大越好。
AUC = 1,是完美分类器,采用这个预测模型时,存在至少一个阈值能得出完美预测。绝大多数预测的场合,不存在完美分类器。
0.5 < AUC < 1,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值。
AUC = 0.5,跟随机猜测一样(例:丢铜板),模型没有预测价值

物理意义:首先AUC值是一个概率值,当你随机挑选一个正样本以及一个负样本,当前的分类算法根据计算得到的Score值将这个正样本排在负样本前面的概率就是AUC值。当然,AUC值越大,当前的分类算法越有可能将正样本排在负样本前面,即能够更好的分类。

计算公式:就是求曲线下矩形面积。

链接:https://www.jianshu.com/p/ac46cb7e6f87
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

1.9 IOU

IOU的概念应该比较简单,就是衡量预测框和真实框的重合程度。
下图是一个示例:图中绿色框为实际框(好像不是很绿……),红色框为预测框,当我们需要判断两个框之间的关系时,主要就是判断两个框的重合程度。

计算IOU的公式为:

可以看到IOU是一个比值,即交并比。
在分子部分,值为预测框和实际框之间的重叠区域;
在分母部分,值为预测框和实际框所占有的总区域。


交区域和并区域的比值,就是IOU。

在语义分割中:
混淆矩阵计算:
以求二分类:正例(类别1)的IoU为例
交集:TP,并集:TP、FP、FN求和
IoU = TP / (TP + FP + FN)

那么问题来了,交集和并集是如何来的?

继续以二分类为例说明,求正例(类别1)的IoU:

如图所示,A代表真实值(ground truth),B代表预测样本(prediction),预测值和真实值的关系如下:


TP(True Positive):
橙色,TP = A ∩ B
预测正确,真正例,模型预测为正例,实际是正例(模型预测为类别1,实际是类别1)
FP(False Positive):
黄色,FP = B - (A ∩ B)
预测错误,假正例,模型预测为正例,实际是反例 (模型预测为类别1,实际是类别2)
FN(False Negative):
红色,FN = A - (A ∩ B)
预测错误,假反例,模型预测为反例,实际是正例 (模型预测为类别2,实际是类别1)
TN(True Negative):
白色,TN = ~(A ∪ B)
预测正确,真反例,模型预测为反例,实际是反例 (模型预测为类别2,实际是类别2)
因此,可知正例(类别1)的IoU为:
IoU = TP / (TP + FN + FP)

此处有个比较疑惑的点是:TN有什么用?
因为我们求的是正例(Positive)的IoU,即:只用与P有关的混淆矩阵相关元素:TP、FP、FN,
TN是与P无关,所以对于求正例的IoU无用!

参考资料:
https://blog.csdn.net/weixin_44791964/article/details/104695264

1.10 MIOU平均交并比

含义:模型对每一类预测的结果和真实值的交集与并集的比值,求和再平均的结果

语义分割中混淆矩阵计算:
以求二分类的MIoU为例
MIoU = (IoU正例p + IoU反例n) / 2 = [ TP / (TP + FP + FN) + TN / (TN + FN + FP) ] / 2

1.11 PA:像素准确率

对应:准确率(Accuracy)
含义:预测类别正确的像素数占总像素数的比例
混淆矩阵计算:
对角线元素之和 / 矩阵所有元素之和
PA = (TP + TN) / (TP + TN + FP + FN)

1.12 CPA:类别像素准确率

对应:精准率(Precision)
含义:在类别 i 的预测值中,真实属于 i 类的像素准确率,换言之:模型对类别 i 的预测值有很多,其中有对有错,预测对的值占预测总值的比例
混淆矩阵计算:
类1:P1 = TP / (TP + FP)
类2:P2 = TN / (TN + FN)

1.13 MPA:类别平均像素准确率

含义:分别计算每个类被正确分类像素数的比例,即:CPA,然后累加求平均
混淆矩阵计算:
每个类别像素准确率为:Pi(计算:对角线值 / 对应列的像素总数)
MPA = sum(Pi) / 类别数

1.14 均方根误差

1.15 Kappa系数



1.16 马修斯相关系数(Matthews correlation coefficient)

它考虑到真和假阳性和假阴性,并且通常是被视为一种平衡的措施,即使这些班级的规模大小不同也可以使用

2 分类

(1)准确率(accuracy)
(2)精确率(Precision)
(3)召回率(Recall)

2.1 不平衡数据分类


另外再加上马修斯相关系数

3 目标检测

目标检测中的性能指标主要包括准确率(accuracy)、精确率(precision)、召回率(recall)、平均精度(average precision,AP)、平均精度均值(mean average precision,mAP)。目标检测算法中主要使用的性能指标是 mAP

主要是两个指标:
(1)mAP或AP
(2)检测速度(帧/s)
FPS (每秒传输帧数(Frames Per Second))
FPS是图像领域中的定义,是指画面每秒传输帧数,通俗来讲就是指动画或视频的画面数。FPS是测量用于保存、显示动态视频的信息数量。每秒钟帧数越多,所显示的动作就会越流畅。通常,要避免动作不流畅的最低是30。某些计算机视频格式,每秒只能提供15帧。

4 语义分割

语义分割指标:PA、IoU、mIoU和检测速度(帧/s)

主要是两个指标:
(1)PA、IoU或mIoU其中一个,越往后越好
(2)检测速度(帧/s)

5 单个指标的局限性

在目标检测算法里面有一个非常重要的概念是置信度,如果置信度设置的高的话,预测的结果和实际情况就很符合,如果置信度低的话,就会有很多误检测。

假设一幅图里面总共有3个正样本,目标检测对这幅图的预测结果有10个,其中3个实际上是正样本,7个实际上是负样本。对应置信度如下。

如果我们将可以接受的置信度设置为0.95的话,那么目标检测算法就会将序号为1的样本作为正样本,其它的都是负样本。此时TP = 1,FP = 0,FN = 2。

此时Precision非常高,但是事实上我们只检测出一个正样本,还有两个没有检测出来,因此只用Precision就不合适。

这个时候如果我们将可以接受的置信度设置为0.35的话,那么目标检测算法就会将序号为1的样本作为正样本,其它的都是负样本。此时TP = 3,FP = 3,FN = 0。


此时Recall非常高,但是事实上目标检测算法认为是正样本的样本里面,有3个样本确实是正样本,但有三个是负样本,存在非常严重的误检测,因此只用Recall就不合适。

二者进行结合才是评价的正确方法。

参考资料:

https://blog.csdn.net/weixin_44791964/article/details/104695264

6 回归

基本上有6个:
(1)均方误差
(2)均方根误差
(3)平均绝对值误差
(4)相对平方误差
(5)相对绝对误差
(6)R2
(7)校正决定系数


回归评价指标:
https://blog.csdn.net/u012735708/article/details/84337262

7 sklearn.metrics中实现评价指标

https://blog.csdn.net/liuweiyuxiang/article/details/78475419
https://zhuanlan.zhihu.com/p/111274912
https://www.jb51.net/article/188517.htm
https://blog.csdn.net/weixin_43469047/article/details/114705787

8 参考资料

1、 https://blog.csdn.net/sinat_29047129/article/details/103642140?utm_medium=distribute.pc_relevant_bbs_down.none-task–2alltop_clickdefault-1.nonecase&depth_1-utm_source=distribute.pc_relevant_bbs_down.none-task–2alltop_clickdefault-1.nonecase

2、 https://www.cnblogs.com/eilearn/p/9071440.html

3、https://zhuanlan.zhihu.com/p/51006782

4、https://blog.csdn.net/weixin_44791964/article/details/104695264

5、https://www.jianshu.com/p/ac46cb7e6f87
感谢提供上述资料的作者!
谢谢!

深度学习原理3——深度学习评价指标相关推荐

  1. 视频教程-深度学习原理详解及Python代码实现-深度学习

    深度学习原理详解及Python代码实现 大学教授,美国归国博士.博士生导师:人工智能公司专家顾问:长期从事人工智能.物联网.大数据研究:已发表学术论文100多篇,授权发明专利10多项 白勇 ¥88.0 ...

  2. python神经网络原理pdf_《深度学习原理与 TensorFlow实践》高清完整PDF版 下载

    1.封面介绍 2.出版时间 2019年7月 3.推荐理由 本书介绍了深度学习原理与TensorFlow实践.着重讲述了当前学术界和工业界的深度学习核心知识:机器学习概论.神经网络.深度学习.着重讲述了 ...

  3. 深度学习原理与TensorFlow实践

    深度学习原理与TensorFlow实践 王琛,胡振邦,高杰 著 ISBN:9787121312984 包装:平装 开本:16开 用纸:胶版纸 正文语种:中文 出版社:电子工业出版社 出版时间:2017 ...

  4. Day01-图像处理原理与深度学习入门

    Day01-图像处理原理与深度学习入门 文章目录 Day01-图像处理原理与深度学习入门 作业说明 一.数据准备 二.疫情地图 完成作业 paddle的本地安装 绘制疫情饼图 作业说明 今天的实战项目 ...

  5. 纯干货-17 分布式深度学习原理、算法详细介绍

    介绍 无监督的特征学习和深度学习已经证明,通过海量的数据来训练大型的模型可以大大提高模型的性能.但是,考虑需要训练的深度网络模型有数百万甚至数十亿个参数需要训练,这其实是一个非常复杂的问题.我们可以很 ...

  6. 深度学习原理-----线性回归+梯度下降法

    系列文章目录 深度学习原理-----线性回归+梯度下降法 深度学习原理-----逻辑回归算法 深度学习原理-----全连接神经网络 深度学习原理-----卷积神经网络 深度学习原理-----循环神经网 ...

  7. tensorflow63 《深度学习原理与TensorFlow实战》03 Hello TensorFlow

    00 基本信息 <深度学习原理与TensorFlow实战>书中涉及到的代码主要来源于: A:Tensorflow/TensorflowModel/TFLean的样例, B:https:// ...

  8. 深度学习原理-----逻辑回归算法

    系列文章目录 深度学习原理-----线性回归+梯度下降法 深度学习原理-----逻辑回归算法 深度学习原理-----全连接神经网络 深度学习原理-----卷积神经网络 深度学习原理-----循环神经网 ...

  9. 深度学习原理-----全连接神经网络

    系列文章目录 深度学习原理-----线性回归+梯度下降法 深度学习原理-----逻辑回归算法 深度学习原理-----全连接神经网络 深度学习原理-----卷积神经网络 深度学习原理-----循环神经网 ...

最新文章

  1. GitHub引入联合提交者功能
  2. html webservice数据交互_一种基于WebService的数据交换方法
  3. Java Store_java之Properties集合中的方法store
  4. springcloud(十一):服务网关Zuul高级篇
  5. 23 Python 面向对象
  6. SQL中常用的的时间跟日期函数
  7. 红杉中国2021企业数字化年度指南:企业如何制胜数字化浪潮?
  8. MacBook 键盘出现故障,如何修复?
  9. 逆向 Mac 应用 Bartender
  10. mysql+修改字段长度语句,mysql修改字段长度的sql语句分享
  11. 设置IDEA的护眼插件
  12. 电摩测试速度什么软件,速度最快的4款新电动车,你更看好谁?为什么呢?
  13. 学校计算机ip设置路由器,路由器怎么设置ip 如何设置路由器ip地址【详细步骤】...
  14. 中国十大B2C电商网站开发语言调查
  15. MD5校验文件完整性
  16. 在家谱中查找关系远近
  17. XGen for iOS789 简明 教程
  18. K8S之ReplicaSet详解
  19. spark提交python程序_Spark任务提交(Spark Submit)
  20. Python学生信息管理系统图形化界面-老师端-学生端项目实现

热门文章

  1. 给初学PLC编程的朋友几点建议
  2. Levenberg–Marquardt algorithm
  3. 标准C++ 与MFC 6.0 中字符串的分割
  4. maven+springMVC+mysql+mybatis+velocity+事务整合
  5. python控制电机_树莓派使用Python控制步进电机
  6. 什么是 BA ?BA怎么样?BA和BI是什么关系?
  7. html5画布绘制微信logo,HTML5新特性之用SVG绘制微信logo
  8. 无监督学习(2) 数据降维简述与Python实现
  9. python中用turtle绘制同心圆_使用Python+turtle绘制同心圆
  10. 千兆以太网_基础知识