CNN中常用的卷积核:锐化卷积核模板
锐化
将原图像和拉普拉斯图像叠加到一起,便可以得到锐化图像。在图像的边缘处,二阶微分值变化非常大。因此可以用各向同性的拉普拉斯微分算子检测图像中的灰度突变(即边缘)。
各向同性是指先对图像进行旋转再进行滤波处理和先进行滤波处理再旋转的结果是相同的。
拉普拉斯算子的变换:
∇2f=∂2f∂2x+∂2f∂2y\nabla^{2}f = \frac{\partial^{2} f}{\partial^{2} x} + \frac{\partial^{2} f}{\partial^{2} y} ∇2f=∂2x∂2f+∂2y∂2f
∂2f∂2x=f(x+1,y)+f(x−1,y)−2f(x,y)\frac{\partial^{2} f}{\partial^{2} x} = f(x+1,y) + f(x-1,y) - 2f(x,y) ∂2x∂2f=f(x+1,y)+f(x−1,y)−2f(x,y)
∂2f∂2y=f(x,y+1)+f(x,y−1)−2f(x,y)\frac{\partial^{2} f}{\partial^{2} y} = f(x, y+1) + f(x, y-1) -2f(x,y) ∂2y∂2f=f(x,y+1)+f(x,y−1)−2f(x,y)
∇2f=∂2f∂2x+∂2f∂2y=f(x+1,y)+f(x−1,y)+f(x,y+1)+f(x,y−1)−4f(x,y)\nabla^{2}f = \frac{\partial^{2} f}{\partial^{2} x} + \frac{\partial^{2} f}{\partial^{2} y} = f(x+1,y) + f(x-1, y) + f(x, y+1) + f(x, y-1) -4f(x,y) ∇2f=∂2x∂2f+∂2y∂2f=f(x+1,y)+f(x−1,y)+f(x,y+1)+f(x,y−1)−4f(x,y)
将上面的式子换一个表达方式,以x, y为坐标中心点,则可以表达为:
将原图像和拉普拉斯图像叠加在一起得锐化卷积核模板:
(注意:原图像-拉普拉斯图像=锐化图像,做差是因为拉普拉斯算子中心为负。)
CNN中常用的卷积核:锐化卷积核模板相关推荐
- CNN中为什么普遍使用小卷积核
从CNN的发展过程看,卷积核(filters)的尺寸有越来越小的趋势,比如vgg网络中全部采用3*3的小卷积核,那么为什么要普遍使用小卷积核而非大卷积核呢? 大尺寸的卷积核可以带来更大的感受野,但也意 ...
- CNN之性能指标:卷积神经网络中常用的性能指标(IOU/AP/mAP、混淆矩阵)简介、使用方法之详细攻略
CNN之性能指标:卷积神经网络中常用的性能指标(IOU/AP/mAP.混淆矩阵)简介.使用方法之详细攻略 目录 CNN中常用的性能指标(IOU/AP/mAP.混淆矩阵)简介 IOU 1.IOU简介 2 ...
- CNN中feature map、卷积核、卷积核个数、filter、channel的概念解释,以及CNN 学习过程中卷积核更新的理解
feature map.卷积核.卷积核个数.filter.channel的概念解释 feather map的理解 在cnn的每个卷积层,数据都是以三维形式存在的.你可以把它看成许多个二维图片叠在一起( ...
- CNN中的权重维度解析以及卷积核中的数值是怎么确定的
以<python深度学习>第五章第一个实验为例,神经网络结构如下: 首先最上面一个池化层max_pooling2d_1:MaxPooling2D 的结果是:(32,) 也就是说相对于下一个 ...
- CNN中的卷积核及TensorFlow中卷积的各种实现
声明: 1. 我和每一个应该看这篇博文的人一样,都是初学者,都是小菜鸟,我发布博文只是希望加深学习印象并与大家讨论. 2. 我不确定的地方用了"应该"二字 首先,通俗说一下,CNN ...
- 为什么CNN中的卷积核一般都是奇数?
本博客只用于自身学习,如有错误,虚心求教!!! 为什么CNN中的卷积核一般都是奇奇数*奇数,没有偶数*偶数的? 咱们经常见到的多为 3 * 3.5*5;怎么从来没有见过 4*4,6*6 之类的卷积核? ...
- 为什么CNN中的卷积核一般都是奇数
本博客只用于自身学习,如有错误,虚心求教!!! 为什么CNN中的卷积核一般都是奇奇数*奇数,没有偶数*偶数的? 咱们经常见到的多为 3 * 3.5*5;怎么从来没有见过 4*4,6*6 之类的卷积核? ...
- 深度学习基础学习-1x1卷积核的作用(CNN中)
前言 这里就不赘述卷积神经网络相关内容了,直接通过博主看的一些资料,自己进行了一些整合,大佬绕道. 对于1x1卷积核的作用主要可以归纳为以下几点 增加网络深度(增加非线性映射次数) 升维/降维 跨通道 ...
- CNN误差反传时旋转卷积核的简明分析
CNN(卷积神经网络)的误差反传(error back propagation)中有一个非常关键的的步骤就是将某个卷积(Convolve)层的误差传到前一层的池化(Pool)层上,因为在CNN中是2D ...
最新文章
- 没有终结点在侦听可以接受消息的_IoT Hub入门(3)使用消息路由将原始设备数据记录存档...
- pycharm在运行TensorFlow时出现如下信息
- html转义成velocity,改造Velocity模板引擎让$[!]{}输出默认进行html转义,并增加$#{}语法支持不转义输出...
- 数据库三范式,轻松理解
- 客户端可以查询到数据,程序却查询不到数据
- 资深解毒:盖码饭和盖浇饭的区别是什么?
- 电子测量——用C语言设计测量数据误差处理的通用程序
- mongodb mongoose 的使用
- matlab中的对数函数,[matlab对数函数]对数函数运算法则是什么呢?
- untracked files prevent merge
- 游戏常用数据分析指标汇总
- 理财趣事:要想财富滚滚来 先学普京打野猪
- 6寸相纸怎么排版两寸照片
- 网页设计如何排成一列_HTML页面布局怎么设计(图文)
- html如何让网页有图标,HTML设置网页图标的两种方法
- 很受打动的一篇文章,很幽默让人想看完。
- 基于proteus的功率_学习电路仿真:基于proteus电路仿真软件的步进电机仿真
- Python一些可能用的到的函数系列37flipflop 对象
- ZOJ 3380 Patchouli's Spell Cards(DP,大数)
- 互联网晚报 | 05月11日 星期三 | 贝壳找房启动新一轮裁员;苹果宣布停产iPod touch;朴新教育否认“宣布破产”...