文章目录

  • Backbone(Darknet53)
    • 第一次下采样(to 208)
    • 第二次下采样(to 104)
    • 第三次下采样(to 52)
    • 第四次下采样(to 26)
    • 第五次下采样(to 13)
  • YOLOLayer
    • 第一层yolo层
    • 第二层yolo层
    • 第三层yolo层
    • 完结撒花

代码链接: pytorch yolov3
yolov3.cfg参数,每层输出详解,希望帮助新手理解。大佬如果发现错误,请指出来,我及时改正!
(刚开始用md,排版不舒服请见谅。)
图像输入:width=416,height=416,channels=3
no.x序号:卷积层计数
[层名]x序号:route时会用到的计数

Backbone(Darknet53)

#(no.1)conv+bn+leakyrelu

#out_put_shape: 32×416×41632\times416\times41632×416×416

[convolutional]0
batch_normalize=1
filters=32
size=3
stride=1
pad=1
activation=leaky

第一次下采样(to 208)

#Downsample(stride=2)

#(no.2)conv+bn+leakyrelu

#out_put_shape: 64×208×20864\times208\times20864×208×208

[convolutional]1
batch_normalize=1
filters=64
size=3
stride=2
pad=1
activation=leaky

#(no.3)conv+bn+leaky

#out_put_shape: 32×208×20832\times208\times20832×208×208

[convolutional]2
batch_normalize=1
filters=32
size=1
stride=1
pad=1
activation=leaky

#(no.4)conv+bn+leaky

#out_put_shape: 64×208×20864\times208\times20864×208×208

[convolutional]3
batch_normalize=1
filters=64
size=3
stride=1
pad=1
activation=leaky

#(shortcut_1)上一卷积层(no.4(64×208×20864\times208\times20864×208×208)与上三卷积层前(no.2(64×208×20864\times208\times20864×208×208))的特征融合

#out_put_shape:64×208×20864\times208\times20864×208×208

[shortcut]4
from=-3
activation=linear



第二次下采样(to 104)

#Downsample

#(no.5)conv+bn+leaky

#out_put_shape: 128×104×104128\times104\times104128×104×104

[convolutional]5
batch_normalize=1
filters=128
size=3
stride=2
pad=1
activation=leaky

#(no.6)conv+bn+leaky

#out_put_shape: 64×104×10464\times104\times10464×104×104

[convolutional]6
batch_normalize=1
filters=64
size=1
stride=1
pad=1
activation=leaky

#(no.7)conv+bn+leaky

#out_put_shape: 128×104×104128\times104\times104128×104×104

[convolutional]7
batch_normalize=1
filters=128
size=3
stride=1
pad=1
activation=leaky

#同理,out_put_shape:128×104×104128\times104\times104128×104×104

[shortcut]8
from=-3
activation=linear



#(no.8)conv+bn+leaky

#out_put_shape: 64×104×10464\times104\times10464×104×104

[convolutional]9
batch_normalize=1
filters=64
size=1
stride=1
pad=1
activation=leaky

#(no.9)conv+bn+leaky

#out_put_shape: 128×104×104128\times104\times104128×104×104

[convolutional]10
batch_normalize=1
filters=128
size=3
stride=1
pad=1
activation=leaky

#同理,这次是和上一个shortcut输出连接,out_put_shape:128×104×104128\times104\times104128×104×104

[shortcut]11
from=-3
activation=linear


至此,(128,104,104)特征图通过(降维——卷积——残差)的方式处理了2次。


第三次下采样(to 52)

#Downsample

#(no.10)conv+bn+leaky

#out_put_shape: 256×52×52256\times52\times52256×52×52

[convolutional]12
batch_normalize=1
filters=256
size=3
stride=2
pad=1
activation=leaky

#(no.11)conv+bn+leaky

#out_put_shape: 128×52×52128\times52\times52128×52×52

[convolutional]13
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

#(no.12)conv+bn+leaky

#out_put_shape: 256×52×52256\times52\times52256×52×52

[convolutional]14
batch_normalize=1
filters=256
size=3
stride=1
pad=1
activation=leaky

#同理,no.12卷积层和no.10卷积层连接,out_put_shape:256×52×52256\times52\times52256×52×52

[shortcut]15
from=-3
activation=linear



#(no.13)conv+bn+leaky

#out_put_shape: 128×52×52128\times52\times52128×52×52

[convolutional]16
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

#(no.14)conv+bn+leaky

#out_put_shape: 256×52×52256\times52\times52256×52×52

[convolutional]17
batch_normalize=1
filters=256
size=3
stride=1
pad=1
activation=leaky

#同理,no.14卷积层和上一个shortcut连接,out_put_shape:256×52×52256\times52\times52256×52×52

[shortcut]18
from=-3
activation=linear



#(no.15)conv+bn+leaky

#out_put_shape: 128×52×52128\times52\times52128×52×52

[convolutional]19
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

#(no.16)conv+bn+leaky

#out_put_shape: 256×52×52256\times52\times52256×52×52

[convolutional]20
batch_normalize=1
filters=256
size=3
stride=1
pad=1
activation=leaky

#同理,no.16卷积层和上一个shortcut连接,out_put_shape:256×52×52256\times52\times52256×52×52

[shortcut]21
from=-3
activation=linear



#(no.17)conv+bn+leaky

#out_put_shape: 128×52×52128\times52\times52128×52×52

[convolutional]22
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

#(no.18)conv+bn+leaky

#out_put_shape: 256×52×52256\times52\times52256×52×52

[convolutional]23
batch_normalize=1
filters=256
size=3
stride=1
pad=1
activation=leaky

#同理,no.18卷积层和上一个shortcut连接,out_put_shape:256×52×52256\times52\times52256×52×52

[shortcut]24
from=-3
activation=linear



#(no.19)conv+bn+leaky

#out_put_shape: 128×52×52128\times52\times52128×52×52

[convolutional]25
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

#(no.20)conv+bn+leaky

#out_put_shape: 256×52×52256\times52\times52256×52×52

[convolutional]26
batch_normalize=1
filters=256
size=3
stride=1
pad=1
activation=leaky

#同理,no.20卷积层和上一个shortcut连接,out_put_shape:256×52×52256\times52\times52256×52×52

[shortcut]27
from=-3
activation=linear



#(no.21)conv+bn+leaky

#out_put_shape: 128×52×52128\times52\times52128×52×52

[convolutional]28
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

#(no.22)conv+bn+leaky

#out_put_shape: 256×52×52256\times52\times52256×52×52

[convolutional]29
batch_normalize=1
filters=256
size=3
stride=1
pad=1
activation=leaky

#同理,no.22卷积层和上一个shortcut连接,out_put_shape:256×52×52256\times52\times52256×52×52

[shortcut]30
from=-3
activation=linear



#(no.23)conv+bn+leaky

#out_put_shape: 128×52×52128\times52\times52128×52×52

[convolutional]31
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

#(no.24)conv+bn+leaky

#out_put_shape: 256×52×52256\times52\times52256×52×52

[convolutional]32
batch_normalize=1
filters=256
size=3
stride=1
pad=1
activation=leaky

#同理,no.24卷积层和上一个shortcut连接,out_put_shape:256×52×52256\times52\times52256×52×52

[shortcut]33
from=-3
activation=linear



#(no.25)conv+bn+leaky

#out_put_shape: 128×52×52128\times52\times52128×52×52

[convolutional]34
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

#(no.26)conv+bn+leaky

#out_put_shape: 256×52×52256\times52\times52256×52×52

[convolutional]35
batch_normalize=1
filters=256
size=3
stride=1
pad=1
activation=leaky

#同理,no.26卷积层和上一个shortcut连接,out_put_shape:256×52×52256\times52\times52256×52×52

[shortcut]36
from=-3
activation=linear


至此(256,52,52)的特征图同样的方式(降维——卷积——残差)处理了8次。


第四次下采样(to 26)

#Downsample

#(no.27)conv+bn+leaky

#out_put_shape: 512×26×26512\times26\times26512×26×26

[convolutional]37
batch_normalize=1
filters=512
size=3
stride=2
pad=1
activation=leaky

#(no.28)conv+bn+leaky

#out_put_shape: 256×26×26256\times26\times26256×26×26

[convolutional]38
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

#(no.29)conv+bn+leaky

#out_put_shape: 512×26×26512\times26\times26512×26×26

[convolutional]39
batch_normalize=1
filters=512
size=3
stride=1
pad=1
activation=leaky

#同理,no.29卷积层和no.27卷积层连接,out_put_shape:512×26×26512\times26\times26512×26×26

[shortcut]40
from=-3
activation=linear



#(no.30)conv+bn+leaky

#out_put_shape: 256×26×26256\times26\times26256×26×26

[convolutional]41
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

#(no.31)conv+bn+leaky

#out_put_shape: 512×26×26512\times26\times26512×26×26

[convolutional]42
batch_normalize=1
filters=512
size=3
stride=1
pad=1
activation=leaky

#同理,no.31卷积层和上一个shortcut层连接,out_put_shape:512×26×26512\times26\times26512×26×26

[shortcut]43
from=-3
activation=linear



#(no.32)conv+bn+leaky

#out_put_shape: 256×26×26256\times26\times26256×26×26

[convolutional]44
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

#(no.33)conv+bn+leaky

#out_put_shape: 512×26×26512\times26\times26512×26×26

[convolutional]45
batch_normalize=1
filters=512
size=3
stride=1
pad=1
activation=leaky

#同理,no.33卷积层和上一个shortcut层连接,out_put_shape:512×26×26512\times26\times26512×26×26

[shortcut]46
from=-3
activation=linear



#(no.34)conv+bn+leaky

#out_put_shape: 256×26×26256\times26\times26256×26×26

[convolutional]47
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

#(no.35)conv+bn+leaky

#out_put_shape: 512×26×26512\times26\times26512×26×26

[convolutional]48
batch_normalize=1
filters=512
size=3
stride=1
pad=1
activation=leaky

#同理,no.35卷积层和上一个shortcut层连接,out_put_shape:512×26×26512\times26\times26512×26×26

[shortcut]49
from=-3
activation=linear



#(no.36)conv+bn+leaky

#out_put_shape: 256×26×26256\times26\times26256×26×26

[convolutional]50
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

#(no.37)conv+bn+leaky

#out_put_shape: 512×26×26512\times26\times26512×26×26

[convolutional]51
batch_normalize=1
filters=512
size=3
stride=1
pad=1
activation=leaky

#同理,no.37卷积层和上一个shortcut层连接,out_put_shape:512×26×26512\times26\times26512×26×26

[shortcut]52
from=-3
activation=linear



#(no.38)conv+bn+leaky

#out_put_shape: 256×26×26256\times26\times26256×26×26

[convolutional]53
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

#(no.39)conv+bn+leaky

#out_put_shape: 512×26×26512\times26\times26512×26×26

[convolutional]54
batch_normalize=1
filters=512
size=3
stride=1
pad=1
activation=leaky

#同理,no.39卷积层和上一个shortcut层连接,out_put_shape:512×26×26512\times26\times26512×26×26

[shortcut]55
from=-3
activation=linear



#(no.40)conv+bn+leaky

#out_put_shape: 256×26×26256\times26\times26256×26×26

[convolutional]56
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

#(no.41)conv+bn+leaky

#out_put_shape: 512×26×26512\times26\times26512×26×26

[convolutional]57
batch_normalize=1
filters=512
size=3
stride=1
pad=1
activation=leaky

#同理,no.41卷积层和上一个shortcut层连接,out_put_shape:512×26×26512\times26\times26512×26×26

[shortcut]58
from=-3
activation=linear



#(no.42)conv+bn+leaky

#out_put_shape: 256×26×26256\times26\times26256×26×26

[convolutional]59
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

#(no.43)conv+bn+leaky

#out_put_shape: 512×26×26512\times26\times26512×26×26

[convolutional]60
batch_normalize=1
filters=512
size=3
stride=1
pad=1
activation=leaky

#同理,no.43卷积层和上一个shortcut层连接,out_put_shape:512×26×26512\times26\times26512×26×26

[shortcut]61
from=-3
activation=linear


至此,(512,26,26)的特征图被同样的方式(降维——卷积——残差)处理了8次。


第五次下采样(to 13)

#Downsample

#(no.44)conv+bn+leaky

#out_put_shape: 1024×13×131024\times13\times131024×13×13

[convolutional]
batch_normalize=1
filters=1024
size=3
stride=2
pad=1
activation=leaky

#(no.45)conv+bn+leaky

#out_put_shape: 512×13×13512\times13\times13512×13×13

[convolutional]
batch_normalize=1
filters=512
size=1
stride=1
pad=1
activation=leaky

#(no.46)conv+bn+leaky

#out_put_shape: 1024×13×131024\times13\times131024×13×13

[convolutional]
batch_normalize=1
filters=1024
size=3
stride=1
pad=1
activation=leaky

#同理,no.46卷积层和no.44卷积层连接,out_put_shape:1024×13×131024\times13\times131024×13×13

[shortcut]
from=-3
activation=linear



#(no.47)conv+bn+leaky

#out_put_shape: 512×13×13512\times13\times13512×13×13

[convolutional]
batch_normalize=1
filters=512
size=1
stride=1
pad=1
activation=leaky

#(no.48)conv+bn+leaky

#out_put_shape: 1024×13×131024\times13\times131024×13×13

[convolutional]
batch_normalize=1
filters=1024
size=3
stride=1
pad=1
activation=leaky

#同理,no.48卷积层和上一个shortcut层连接,out_put_shape:1024×13×131024\times13\times131024×13×13

[shortcut]
from=-3
activation=linear



#(no.49)conv+bn+leaky

#out_put_shape: 512×13×13512\times13\times13512×13×13

[convolutional]
batch_normalize=1
filters=512
size=1
stride=1
pad=1
activation=leaky

#(no.50)conv+bn+leaky

#out_put_shape: 1024×13×131024\times13\times131024×13×13

[convolutional]
batch_normalize=1
filters=1024
size=3
stride=1
pad=1
activation=leaky

#同理,no.50卷积层和上一个shortcut层连接,out_put_shape:1024×13×131024\times13\times131024×13×13

[shortcut]
from=-3
activation=linear



#(no.51)conv+bn+leaky

#out_put_shape: 512×13×13512\times13\times13512×13×13

[convolutional]
batch_normalize=1
filters=512
size=1
stride=1
pad=1
activation=leaky

#(no.52)conv+bn+leaky

#out_put_shape: 1024×13×131024\times13\times131024×13×13

[convolutional]
batch_normalize=1
filters=1024
size=3
stride=1
pad=1
activation=leaky

#同理,no.52卷积层和上一个shortcut层连接,out_put_shape:1024×13×131024\times13\times131024×13×13

[shortcut]
from=-3
activation=linear


终于,(1024,13,13)四次处理之后,一堆井号意味着backbone结束了。


######################

YOLOLayer

第一层yolo层

#(no.53)conv+bn+leaky

#out_put_shape: 512×13×13512\times13\times13512×13×13

[convolutional]
batch_normalize=1
filters=512
size=1
stride=1
pad=1
activation=leaky

#(no.54)conv+bn+leaky

#out_put_shape: 1024×13×131024\times13\times131024×13×13

[convolutional]
batch_normalize=1
size=3
stride=1
pad=1
filters=1024
activation=leaky

#(no.55)conv+bn+leaky

#out_put_shape: 512×13×13512\times13\times13512×13×13

[convolutional]
batch_normalize=1
filters=512
size=1
stride=1
pad=1
activation=leaky

#(no.56)conv+bn+leaky

#out_put_shape: 1024×13×131024\times13\times131024×13×13

[convolutional]
batch_normalize=1
size=3
stride=1
pad=1
filters=1024
activation=leaky

#(no.57)conv+bn+leaky

#out_put_shape: 512×13×13512\times13\times13512×13×13

[convolutional]
batch_normalize=1
filters=512
size=1
stride=1
pad=1
activation=leaky

#(no.58)conv+bn+leaky

#out_put_shape: 1024×13×131024\times13\times131024×13×13

[convolutional]
batch_normalize=1
size=3
stride=1
pad=1
filters=1024
activation=leaky

#(no.59)conv+bn+leaky

#这是yolo层的前一个卷积层,要把特征图变成(anchor×(class+5),13,13anchor\times(class+5),13,13anchor×(class+5),13,13)喂入yolo层

#out_put_shape: 255×13×13255\times13\times13255×13×13

[convolutional]
size=1
stride=1
pad=1
filters=255
activation=linear

#第一个yolo层
#mask=678意味着使用最后三个anchor,num=9意思是每个grid预测9个bbox,jitter数据抖动,产生更多数据(属于TTA,Test Time Augmentation),ignore指IOU的阈值大小,小尺度用0.7,大尺度用0.5。
#输出为(3,13,13,85)把255分为anchor和类别加位置信息等。

[yolo]
mask = 6,7,8
anchors = 10,13, 16,30, 33,23, 30,61, 62,45, 59,119, 116,90, 156,198, 373,326
classes=80
num=9
jitter=.3
ignore_thresh = .7
truth_thresh = 1
random=1

第二层yolo层

#route层,意思是提取当前倒数第四个层的输出,即no.57卷积层(512,13,13)。

[route]
layers = -4

#(no.60)conv+bn+leaky

#out_put_shape: 256×13×13256\times13\times13256×13×13

[convolutional]
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

#上采样层,输出为(256,26,26)

[upsample]
stride=2

#route层(双参数):是指上一层即上采样层(256,26,26)和第61层(512,26,26)(也就是第四次下采样后残差处理过后的最终结果)按第一个维度相加得到(具体序号看[方括号]后的标号)往前找!
#所以,这一层的输出是(768,26,26)

[route]
layers = -1, 61

#(no.61)conv+bn+leaky

#out_put_shape: 256×26×26256\times26\times26256×26×26

[convolutional]
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

#(no.62)conv+bn+leaky

#out_put_shape: 512×26×26512\times26\times26512×26×26

[convolutional]
batch_normalize=1
size=3
stride=1
pad=1
filters=512
activation=leaky

#(no.63)conv+bn+leaky

#out_put_shape: 256×26×26256\times26\times26256×26×26

[convolutional]
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

#(no.64)conv+bn+leaky

#out_put_shape: 512×26×26512\times26\times26512×26×26

[convolutional]
batch_normalize=1
size=3
stride=1
pad=1
filters=512
activation=leaky

#(no.65)conv+bn+leaky

#out_put_shape: 256×26×26256\times26\times26256×26×26

[convolutional]
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

#(no.66)conv+bn+leaky

#out_put_shape: 512×26×26512\times26\times26512×26×26

[convolutional]
batch_normalize=1
size=3
stride=1
pad=1
filters=512
activation=leaky

#(no.67)conv+bn+leaky

#out_put_shape: 255×26×26255\times26\times26255×26×26

[convolutional]
size=1
stride=1
pad=1
filters=255
activation=linear

#yolo层,解释见上。输出为(3,26,26,85)

[yolo]
mask = 3,4,5
anchors = 10,13, 16,30, 33,23, 30,61, 62,45, 59,119, 116,90, 156,198, 373,326
classes=80
num=9
jitter=.3
ignore_thresh = .7
truth_thresh = 1
random=1

第三层yolo层

#route层,提取当前倒数第四层特征,即no.65卷积层(256,26,26)

[route]
layers = -4

#(no.68)conv+bn+leaky

#out_put_shape: 128×26×26128\times26\times26128×26×26

[convolutional]
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

#上采样层,输出(128,52,52)

[upsample]
stride=2

#route层(双参数):是指上一层即上采样层(128,52,52)和第36层(256,52,52)(也就是第四次下采样后残差处理过后的最终结果)按第一个维度相加得到(具体序号看[方括号]后的标号)往前找!
#此层输出为(384,52,52)

[route]
layers = -1, 36

#(no.69)conv+bn+leaky

#out_put_shape: 128×52×52128\times52\times52128×52×52

[convolutional]
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

#(no.70)conv+bn+leaky

#out_put_shape: 256×52×52256\times52\times52256×52×52

[convolutional]
batch_normalize=1
size=3
stride=1
pad=1
filters=256
activation=leaky

#(no.71)conv+bn+leaky

#out_put_shape: 128×52×52128\times52\times52128×52×52

[convolutional]
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

#(no.72)conv+bn+leaky

#out_put_shape: 256×52×52256\times52\times52256×52×52

[convolutional]
batch_normalize=1
size=3
stride=1
pad=1
filters=256
activation=leaky

#(no.73)conv+bn+leaky

#out_put_shape: 128×52×52128\times52\times52128×52×52

[convolutional]
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

#(no.74)conv+bn+leaky

#out_put_shape: 256×52×52256\times52\times52256×52×52

[convolutional]
batch_normalize=1
size=3
stride=1
pad=1
filters=256
activation=leaky

#(no.75)conv+bn+leaky

#out_put_shape: 255×52×52255\times52\times52255×52×52

[convolutional]
size=1
stride=1
pad=1
filters=255
activation=linear

#yolo层,解释见上。输出为(3,52,52,85)

[yolo]
mask = 0,1,2
anchors = 10,13, 16,30, 33,23, 30,61, 62,45, 59,119, 116,90, 156,198, 373,326
classes=80
num=9
jitter=.3
ignore_thresh = .7
truth_thresh = 1
random=1

完结撒花

至此,yolov3.cfg解析完毕!!!撒花!

[pytorch]yolov3.cfg参数详解(每层输出及route、yolo、shortcut层详解)相关推荐

  1. yolov3中的route和shortcut层

    1.shortcut层 shortcut层的输入层一般是两个(目前还没出现多余两个的情况),实现两个张量相加,例如: 对应的cfg文件中的层为: #4 [convolutional] batch_no ...

  2. yolov4中的route和shortcut层

    1.shortcut层 shortcut层的输入层一般是两个(目前还没出现多余两个的情况),实现两个张量相加,例如: 对应的cfg文件中的层为: #4 [convolutional] batch_no ...

  3. Pytorch | yolov3原理及代码详解(一)

    YOLO相关原理 : https://blog.csdn.net/leviopku/article/details/82660381 https://www.jianshu.com/p/d13ae10 ...

  4. Pytorch | yolov3原理及代码详解(二)

    阅前可看: Pytorch | yolov3原理及代码详解(一) https://blog.csdn.net/qq_24739717/article/details/92399359 分析代码: ht ...

  5. YOLOv3 cfg文件详解

    参考了多篇详解后 以https://blog.csdn.net/phinoo/article/details/83022101为主补充了一些解释 [net] ★ [xxx]开始的行表示网络的一层,其后 ...

  6. (pytorch-深度学习系列)pytorch卷积层与池化层输出的尺寸的计算公式详解

    pytorch卷积层与池化层输出的尺寸的计算公式详解 要设计卷积神经网络的结构,必须匹配层与层之间的输入与输出的尺寸,这就需要较好的计算输出尺寸 先列出公式: 卷积后,池化后尺寸计算公式: (图像尺寸 ...

  7. Pytorch LSTM模型 参数详解

    本文主要依据 Pytorch 中LSTM官方文档,对其中的模型参数.输入.输出进行详细解释. 目录 基本原理 模型参数 Parameters 输入Inputs: input, (h_0, c_0) 输 ...

  8. listen函数的第二个参数_【图像处理】OpenCV系列十七 --- 几何图像变换函数详解(一)...

    上一篇我们学习了仿射变换的warpAffine函数,知道了如何用这个函数对图像进行旋转.平移等操作,那么本节我们一起来学习一下与仿射变换相关的其他函数以及相关的几何图像变换. 一.convertMap ...

  9. OSI七层模型详解物理层、数据链路层、网络层、传输层.....应用层协议

    OSI七层模型详解(物理层.数据链路层.网络层.传输层.....应用层协议与硬件) OSI 七层模型通过七个层次化的结构模型使不同的系统不同的网络之间实现可靠的通讯,因此其最主要的功能就是帮助不同类型 ...

最新文章

  1. java 泛型对象实例化_在java中实例化泛型类型
  2. springboot打成jar后获取classpath下的文件
  3. java severlet教程_javaweb-severlet
  4. 【Groovy基础系列】 Groovy运算符
  5. 洛谷P1036选数(素数+组合数)
  6. Go 源码阅读笔记 text/template/parse
  7. boost::local_time模块实现自纪元以来的秒数的测试程序
  8. oracle数据库触发器删除不,Oracle之后删除触发器
  9. 4.2 js没有块级作用域
  10. [css]通过transform缩放邮件客户端h5页面
  11. bim webgl 模型 轻量化_BIM模型轻量化是什么?BIM模型轻量化原理
  12. SpringApplication#run⽅法的第6步,创建ApplicationContext(五)
  13. Linux 现在常用的图形化远控软件的大体介绍
  14. 树莓派微型计算机教程,简单易用的树莓派平板 带你快速入门计算机编程
  15. Android基础教程之Button事件发送消息到通知栏Notification
  16. 线段树学习总结 - 关于猹 ACM 生涯的第一次受苦受难
  17. HTML超链接基本属性
  18. 【数据结构与算法】| Map和Set
  19. JAVA爬取淘宝、京东、天猫以及苏宁商品历史价格(二)
  20. 2022第七届“数维杯”大学生数学建模夏令营

热门文章

  1. js 中 java 代码_在js中嵌套java代码
  2. 大数据之路系列之Linux命令(01)
  3. 23个优秀的机器学习训练公开数据集,一文全知道!
  4. SD卡驱动初始化失败
  5. NLTK使用教程(持续更新ing...)
  6. phpExcel 正确读取excel表格时间
  7. 一站式轻监控轻运维系统nezha(上篇)
  8. 【PHP MySQL】数据库专题 第九课 自连接
  9. 分分钟带你学会DNS、WEB、DHCP服务器的搭建
  10. Oracle学习—图书管理系统_存储过程