转自 http://www.cnblogs.com/welhzh/p/6607581.html

下面是这位博主自己的翻译加上测试心得

tf.nn.conv2d是TensorFlow里面实现卷积的函数,参考文档对它的介绍并不是很详细,实际上这是搭建卷积神经网络比较核心的一个方法,非常重要

tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)

除去name参数用以指定该操作的name,与方法有关的一共五个参数:

第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_height, in_width, in_channels]这样的shape,具体含义是[训练时一个batch的图片数量, 图片高度, 图片宽度, 图像通道数],注意这是一个4维的Tensor,要求类型为float32和float64其中之一

第二个参数filter:相当于CNN中的卷积核,它要求是一个Tensor,具有[filter_height, filter_width, in_channels, out_channels]这样的shape,具体含义是[卷积核的高度,卷积核的宽度,图像通道数,卷积核个数],要求类型与参数input相同,有一个地方需要注意,第三维in_channels,就是参数input的第四维

第三个参数strides:卷积时在图像每一维的步长,这是一个一维的向量,长度4

第四个参数padding:string类型的量,只能是"SAME","VALID"其中之一,这个值决定了不同的卷积方式(后面会介绍)

第五个参数:use_cudnn_on_gpu:bool类型,是否使用cudnn加速,默认为true

结果返回一个Tensor,这个输出,就是我们常说的feature map,shape仍然是[batch, height, width, channels]这种形式。

那么TensorFlow的卷积具体是怎样实现的呢,用一些例子去解释它:

1.考虑一种最简单的情况,现在有一张3×3单通道的图像(对应的shape:[1,3,3,1]),用一个1×1的卷积核(对应的shape:[1,1,1,1])去做卷积,最后会得到一张3×3的feature map

2.增加图片的通道数,使用一张3×3五通道的图像(对应的shape:[1,3,3,5]),用一个1×1的卷积核(对应的shape:[1,1,1,1])去做卷积,仍然是一张3×3的feature map,这就相当于每一个像素点,卷积核都与该像素点的每一个通道做卷积。

input = tf.Variable(tf.random_normal([1,3,3,5]))

filter= tf.Variable(tf.random_normal([1,1,5,1]))

op= tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='VALID')

3.把卷积核扩大,现在用3×3的卷积核做卷积,最后的输出是一个值,相当于情况2的feature map所有像素点的值求和

input = tf.Variable(tf.random_normal([1,3,3,5]))

filter= tf.Variable(tf.random_normal([3,3,5,1]))

op= tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='VALID')

4.使用更大的图片将情况2的图片扩大到5×5,仍然是3×3的卷积核,令步长为1,输出3×3的feature map

input = tf.Variable(tf.random_normal([1,5,5,5]))

filter= tf.Variable(tf.random_normal([3,3,5,1]))

op= tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='VALID')

注意我们可以把这种情况看成情况2和情况3的中间状态,卷积核以步长1滑动遍历全图,以下x表示的位置,表示卷积核停留的位置,每停留一个,输出feature map的一个像素

.....

.xxx.

.xxx.

.xxx.

.....

5.上面我们一直令参数padding的值为‘VALID’,当其为‘SAME’时,表示卷积核可以停留在图像边缘,如下,输出5×5的feature map

input = tf.Variable(tf.random_normal([1,5,5,5]))

filter= tf.Variable(tf.random_normal([3,3,5,1]))

op= tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='SAME')

xxxxx

xxxxx

xxxxx

xxxxx

xxxxx

6.如果卷积核有多个

input = tf.Variable(tf.random_normal([1,5,5,5]))

filter= tf.Variable(tf.random_normal([3,3,5,7]))

op= tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='SAME')

此时输出7张5×5的feature map

7.步长不为1的情况,文档里说了对于图片,因为只有两维,通常strides取[1,stride,stride,1]

input = tf.Variable(tf.random_normal([1,5,5,5]))

filter= tf.Variable(tf.random_normal([3,3,5,7]))

op= tf.nn.conv2d(input, filter, strides=[1, 2, 2, 1], padding='SAME')

此时,输出7张3×3的feature map

x.x.x

.....

x.x.x

.....

x.x.x

8.如果batch值不为1,同时输入10张图

input = tf.Variable(tf.random_normal([10,5,5,5]))

filter= tf.Variable(tf.random_normal([3,3,5,7]))

op= tf.nn.conv2d(input, filter, strides=[1, 2, 2, 1], padding='SAME')

每张图,都有7张3×3的feature map,输出的shape就是[10,3,3,7]

最后,把程序总结一下:

import tensorflow as tf

# tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)

# 除去name参数用以指定该操作的name,与方法有关的一共五个参数:

#

# 第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_height, in_width, in_channels]这样的shape,具体含义是[训练时一个batch的图片数量, 图片高度, 图片宽度, 图像通道数],注意这是一个4维的Tensor,要求类型为float32和float64其中之一

#

# 第二个参数filter:相当于CNN中的卷积核,它要求是一个Tensor,具有[filter_height, filter_width, in_channels, out_channels]这样的shape,具体含义是[卷积核的高度,卷积核的宽度,图像通道数,卷积核个数],要求类型与参数input相同,有一个地方需要注意,第三维in_channels,就是参数input的第四维

#

# 第三个参数strides:卷积时在图像每一维的步长,这是一个一维的向量,长度4

#

# 第四个参数padding:string类型的量,只能是"SAME","VALID"其中之一,这个值决定了不同的卷积方式(后面会介绍)

#

# 第五个参数:use_cudnn_on_gpu:bool类型,是否使用cudnn加速,默认为true

#

# 结果返回一个Tensor,这个输出,就是我们常说的feature map

oplist=[]

# [batch, in_height, in_width, in_channels]

input_arg = tf.Variable(tf.ones([1, 3, 3, 5]))

# [filter_height, filter_width, in_channels, out_channels]

filter_arg = tf.Variable(tf.ones([1 ,1 , 5 ,1]))

op2 = tf.nn.conv2d(input_arg, filter_arg, strides=[1,1,1,1], use_cudnn_on_gpu=False, padding='VALID')

oplist.append([op2, "case 2"])

# [batch, in_height, in_width, in_channels]

input_arg = tf.Variable(tf.ones([1, 3, 3, 5]))

# [filter_height, filter_width, in_channels, out_channels]

filter_arg = tf.Variable(tf.ones([3 ,3 , 5 ,1]))

op2 = tf.nn.conv2d(input_arg, filter_arg, strides=[1,1,1,1], use_cudnn_on_gpu=False, padding='VALID')

oplist.append([op2, "case 3"])

# [batch, in_height, in_width, in_channels]

input_arg = tf.Variable(tf.ones([1, 5, 5, 5]))

# [filter_height, filter_width, in_channels, out_channels]

filter_arg = tf.Variable(tf.ones([3 ,3 , 5 ,1]))

op2 = tf.nn.conv2d(input_arg, filter_arg, strides=[1,1,1,1], use_cudnn_on_gpu=False, padding='VALID')

oplist.append([op2, "case 4"])

# [batch, in_height, in_width, in_channels]

input_arg = tf.Variable(tf.ones([1, 5, 5, 5]))

# [filter_height, filter_width, in_channels, out_channels]

filter_arg = tf.Variable(tf.ones([3 ,3 , 5 ,1]))

op2 = tf.nn.conv2d(input_arg, filter_arg, strides=[1,1,1,1], use_cudnn_on_gpu=False, padding='SAME')

oplist.append([op2, "case 5"])

# [batch, in_height, in_width, in_channels]

input_arg = tf.Variable(tf.ones([1, 5, 5, 5]))

# [filter_height, filter_width, in_channels, out_channels]

filter_arg = tf.Variable(tf.ones([3 ,3 , 5 ,7]))

op2 = tf.nn.conv2d(input_arg, filter_arg, strides=[1,1,1,1], use_cudnn_on_gpu=False, padding='SAME')

oplist.append([op2, "case 6"])

# [batch, in_height, in_width, in_channels]

input_arg = tf.Variable(tf.ones([1, 5, 5, 5]))

# [filter_height, filter_width, in_channels, out_channels]

filter_arg = tf.Variable(tf.ones([3 ,3 , 5 ,7]))

op2 = tf.nn.conv2d(input_arg, filter_arg, strides=[1,2,2,1], use_cudnn_on_gpu=False, padding='SAME')

oplist.append([op2, "case 7"])

# [batch, in_height, in_width, in_channels]

input_arg = tf.Variable(tf.ones([4, 5, 5, 5]))

# [filter_height, filter_width, in_channels, out_channels]

filter_arg = tf.Variable(tf.ones([3 ,3 , 5 ,7]))

op2 = tf.nn.conv2d(input_arg, filter_arg, strides=[1,2,2,1], use_cudnn_on_gpu=False, padding='SAME')

oplist.append([op2, "case 8"])

with tf.Session() as a_sess:

a_sess.run(tf.global_variables_initializer())

for aop in oplist:

print("----------{}---------".format(aop[1]))

print(a_sess.run(aop[0]))

print('---------------------\n\n')

结果是这样的:

----------case 2---------

[[[[ 5.]

[ 5.]

[ 5.]]

[[ 5.]

[ 5.]

[ 5.]]

[[ 5.]

[ 5.]

[ 5.]]]]

---------------------

----------case 3---------

[[[[ 45.]]]]

---------------------

----------case 4---------

[[[[ 45.]

[ 45.]

[ 45.]]

[[ 45.]

[ 45.]

[ 45.]]

[[ 45.]

[ 45.]

[ 45.]]]]

---------------------

----------case 5---------

[[[[ 20.]

[ 30.]

[ 30.]

[ 30.]

[ 20.]]

[[ 30.]

[ 45.]

[ 45.]

[ 45.]

[ 30.]]

[[ 30.]

[ 45.]

[ 45.]

[ 45.]

[ 30.]]

[[ 30.]

[ 45.]

[ 45.]

[ 45.]

[ 30.]]

[[ 20.]

[ 30.]

[ 30.]

[ 30.]

[ 20.]]]]

---------------------

----------case 6---------

[[[[ 20. 20. 20. 20. 20. 20. 20.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 20. 20. 20. 20. 20. 20. 20.]]

[[ 30. 30. 30. 30. 30. 30. 30.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 30. 30. 30. 30. 30. 30. 30.]]

[[ 30. 30. 30. 30. 30. 30. 30.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 30. 30. 30. 30. 30. 30. 30.]]

[[ 30. 30. 30. 30. 30. 30. 30.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 30. 30. 30. 30. 30. 30. 30.]]

[[ 20. 20. 20. 20. 20. 20. 20.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 20. 20. 20. 20. 20. 20. 20.]]]]

---------------------

----------case 7---------

[[[[ 20. 20. 20. 20. 20. 20. 20.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 20. 20. 20. 20. 20. 20. 20.]]

[[ 30. 30. 30. 30. 30. 30. 30.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 30. 30. 30. 30. 30. 30. 30.]]

[[ 20. 20. 20. 20. 20. 20. 20.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 20. 20. 20. 20. 20. 20. 20.]]]]

---------------------

----------case 8---------

[[[[ 20. 20. 20. 20. 20. 20. 20.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 20. 20. 20. 20. 20. 20. 20.]]

[[ 30. 30. 30. 30. 30. 30. 30.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 30. 30. 30. 30. 30. 30. 30.]]

[[ 20. 20. 20. 20. 20. 20. 20.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 20. 20. 20. 20. 20. 20. 20.]]]

[[[ 20. 20. 20. 20. 20. 20. 20.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 20. 20. 20. 20. 20. 20. 20.]]

[[ 30. 30. 30. 30. 30. 30. 30.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 30. 30. 30. 30. 30. 30. 30.]]

[[ 20. 20. 20. 20. 20. 20. 20.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 20. 20. 20. 20. 20. 20. 20.]]]

[[[ 20. 20. 20. 20. 20. 20. 20.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 20. 20. 20. 20. 20. 20. 20.]]

[[ 30. 30. 30. 30. 30. 30. 30.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 30. 30. 30. 30. 30. 30. 30.]]

[[ 20. 20. 20. 20. 20. 20. 20.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 20. 20. 20. 20. 20. 20. 20.]]]

[[[ 20. 20. 20. 20. 20. 20. 20.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 20. 20. 20. 20. 20. 20. 20.]]

[[ 30. 30. 30. 30. 30. 30. 30.]

[ 45. 45. 45. 45. 45. 45. 45.]

[ 30. 30. 30. 30. 30. 30. 30.]]

[[ 20. 20. 20. 20. 20. 20. 20.]

[ 30. 30. 30. 30. 30. 30. 30.]

[ 20. 20. 20. 20. 20. 20. 20.]]]]

---------------------

conv2d 公式_TF-卷积函数 tf.nn.conv2d 介绍相关推荐

  1. TF-卷积函数 tf.nn.conv2d 介绍

    tf.nn.conv2d是TensorFlow里面实现卷积的函数,参考文档对它的介绍并不是很详细,实际上这是搭建卷积神经网络比较核心的一个方法,非常重要 tf.nn.conv2d(input, fil ...

  2. [TensorFlow 学习笔记-04]卷积函数之tf.nn.conv2d

    [版权说明] TensorFlow 学习笔记参考: 李嘉璇 著 TensorFlow技术解析与实战 黄文坚 唐源 著 TensorFlow实战郑泽宇  顾思宇 著 TensorFlow实战Google ...

  3. tf.nn.conv2d() / tf.nn.depthwise_conv2d() 和 Batchsize效益

    1. 卷积函数tf.nn.conv2d() tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=True, data_form ...

  4. tf.nn.conv2d理解(带通道的卷积图片输出案例)

    三篇参考: 1.https://blog.csdn.net/goodshot/article/details/79655915 TF-卷积函数 tf.nn.conv2d 介绍 2.https://bl ...

  5. TensorFlow tf.nn.conv2d是怎样实现卷积的?

    [TensorFlow]tf.nn.conv2d是怎样实现卷积的? 原文:http://blog.csdn.net/mao_xiao_feng/article/details/78004522 实验环 ...

  6. 通俗理解tf.nn.conv2d() tf.nn.conv3d( )参数的含义 pytorhc 卷积

    20210609 例如(3,3,(3,7,7))表示的是输入图像的通道数是3,输出图像的通道数是3,(3,7,7)表示过滤器每次处理3帧图像,卷积核的大小是3 x 7 x 7. https://blo ...

  7. 【TensorFlow】tf.nn.conv2d是怎样实现卷积的?

    int height_col= (height + 2 * pad_h - kernel_h) / stride_h + 1; int width_col = (width + 2 * pad_w - ...

  8. 【TensorFlow】TensorFlow函数精讲之tf.nn.conv2d()

    博客之星评选,谢谢您的支持!微信.qq五连击投票(无需关注.无需登录) 人工智能博士(投票链接):http://m234140.nofollow.ax.mvote.cn/opage/4fddfa73- ...

  9. tf.nn.conv2d()函数详解(strides与padding的关系)

    tf.nn.conv2d()是TensorFlow中用于创建卷积层的函数,这个函数的调用格式如下: def conv2d(input: Any,filter: Any,strides: Any,pad ...

最新文章

  1. CSAPC08台湾邀请赛_T1_skyline
  2. 《JS权威指南学习总结--3.8类型转换》
  3. jaxb入门_JAXB教程–入门
  4. ASP.NET MVC 入门5、View与ViewData
  5. erlang的cpu调优
  6. 【嵌入式Linux】嵌入式Linux驱动开发基础知识之第一个驱动
  7. c# 实现圆形的进度条(ProgressBar)
  8. 从留言板开始做网站(三)——CSS样式代码
  9. opencv换证件照底色
  10. Excel单元格设置选择项
  11. 曾经爱过就是彼此的慈悲
  12. Spring Boot实训开发个人博客4
  13. Skywalking链路追踪自身耗时和总耗时算法分析
  14. 窃隐私泄露、放高利贷,输入法的暗箱操作
  15. 在MingW上更新的G ++获取大量错误消息(G++ updated on MingW gets massive error messages)
  16. 娃娃乐学拼音软件许可及服务协议
  17. 达梦工具数据迁移 违反唯一约束
  18. 利用OPC技术实现双网冗余系统的通讯驱动
  19. NLTK使用教程(持续更新ing...)
  20. [11.02] 猴猴吃香蕉

热门文章

  1. (53)进程结构体EPROCESS,擦除 DebugPort 实现反调试,ActiveProcessLinks 断链实现进程隐藏
  2. 将JPG文件作为EXE执行
  3. 8、REVOKE:删除用户权限
  4. 通过Application对象实现网站计数器
  5. 2018 年 ACM-ICPC 焦作站现场赛感受
  6. Synchronize锁继承
  7. 二级分类_iOS 13.3正式版,增加信息联系人二级分类,支持联通VoLTE功能
  8. python文件输入和输出程序_python -o 和-i 输入和输出文件如何理解
  9. 再见 Win10!下一代操作系统来了。。
  10. 你真的会正确使用日志吗?