我以前是不知道这个图像分割方法的。之前有个朋友看到我之前图像分割系列的博文,然后就和我说有这么一个东西。所以当时我就稍微看了下。主要还是参考下面这篇论文的,然后按照论文所说的算法自己实现了一部分的代码(没有实现熵的那部分)。

牛建伟等,《基于修正交叉视觉皮质模型的图像分割方法》,北京邮电大学学报,2010

上述论文中提到,交叉视觉皮质模型(ICM)主要基于Eckhorn模型和Rybak模型演化而来,同时吸收了其他视觉模型的优点,是多种脑皮层模型交叉综合的产物。ICM是一种简化的脉冲耦合神经网络(PCNN)模型。PCNN称为第3代人工神经网络。ICM由于保留了PCNN脉冲耦合、变阈值、同步脉冲发放等特性,十分适合图像处理。哈哈,看不太懂,看似很先进的样子。

一、ICM模型

ICM是单层神经网络,其单个神经元模型由接收、调制和脉冲产生三大部分组成,如图所示:

       直接拿图像分割和公式来说明会好一点。下图的公式(1~3)就构成了ICM模型。图像中的每一个像素就是ICM模型的一个神经元,所以每个神经元的标号是两维的,例如第(i, j)个神经元。这里有点意思的是,平时俺们的神经网络都是把输入图像拉成一列当成神经网络的输入的,可以说是一维的,但ICM模型却是2-D的神经元排布,这点当时好像可以给我点什么启发的,但到现在,这点启发对我来说还没办法让我脑袋的某个神经元兴奋。呵呵,扯远了。

(1)接收部分:

包括线性连接输入和反馈输入2部分,线性连接输入接收局部相邻神经元的输入;反馈输入接收来自外部的刺激输入。对于一张图像来说,每个像素就是一个神经元,表示为对应图像上的位置(i,j),它的反馈输入Sij实际上就是每个像素的像素值。像素的灰度值越大,那么这个神经元的反馈输入越大。而对于图像分割,我们还得考虑到邻域像素的影响,一般来说,属于同一个物体,它的颜色就很像,不同物体相接的地方,就是边缘,相邻像素的颜色一般差别蛮大的,所以这个信息对图像分割来说异常重要。在这里,我们怎么用到这个信息呢?就是线性连接输入W{Y}ij了。它反映的是这个神经元与相邻神经元的连接强度,他们的颜色相似性越小,那么他们是同一个物体的可能性就越大,那么他们的连接强度就越大,线性连接输入也就越大。如公式(6)所示,这里考虑的是3x3的邻域。两个神经元或者像素(i, j)和(k, l)距离越近,相似度越大,属于同一个物体的可能性就越大,那么这个值越大。所以神经元(i, j)和(k, l)的连接权值Wij-kl=负灰度差异/两点欧式距离。

(2)调制部分:

调制部分将神经元的线性连接输入和反馈输入进行调制得到神经元的内部活动状态。如公式(1)所示,Fij[n]表示第n个时间(也就是第n次迭代)的时候ICM模型的内部活动状态值,这个值随着迭代的进行不断更新,它有个遗忘因子f。

(3)脉冲产生部分

脉冲产生部分比较内部活动状态和动态阈值,若内部活动状态超过动态阈值Eij[n],则产生脉冲。大则输出1,小的输出0,这样输入一幅图像,就会输出一幅同样大小的二值图,这个二值图就是每一次迭代的分割结果,最好的情况,当然是目标全是1,背景像素全是0了。如公式(2)所示。每个神经元(每个像素)都会保存各自的内部活动状态和各自的动态阈值。而且动态阈值是以公式(3)随着迭代的进行而更新的。当神经元内部状态值超过动态阈值时,输出1个脉冲,此时神经元的阈值因反馈迅速提高,阈值高于内部状态值,输出为0。之后阈值开始衰减下降,当阈值低于内部状态值,神经元再次点火而输出脉冲,如此反复循环。显然,点火的神经元又通过连接输入而影响其他神经元的点火状态。

上面说到,应用ICM进行图像分割时,每个像素点对应1个神经元,每个神经元与邻域神经元连接(一般领域取3×3),构成单层2维局部连接网络。归一化的像素值作为神经元的外部输入,因而亮度大的像素点对应的神经元首先点火。有些首先点火神经元的邻域神经元由于接收连接输入,提高内部状态值而提前点火,这种脉冲传递使亮度相似空间相邻的神经元发出同步脉冲。同步发放脉冲的神经元称为神经元集群,该神经元集群对应图像上不同的区域。放脉冲输出包含图像的区域、纹理和边缘等特征信息,可实现图像分割。

二、代码实现

我的代码是基于VS2010+ OpenCV 2.4.2的。代码实现主要参考论文中的算法描述。但步骤5后面(通过计算原图像与分割后图像间的互信息量客观评价图像的分割效果)就没有实现。具体代码如下:

ICM4Segmentation.cpp

[cpp] view plaincopy
  1. /******************************************************************/
  2. // Image segmentation by ICM
  3. // Author : zouxy
  4. // Date   : 2013-8-23
  5. // HomePage : http://blog.csdn.net/zouxy09
  6. // Email  : zouxy09@qq.com
  7. // Reference: 牛建伟等,基于修正交叉视觉皮质模型的图像分割方法
  8. /******************************************************************/
  9. #include "opencv2/opencv.hpp"
  10. #include <iostream>
  11. using namespace std;
  12. using namespace cv;
  13. int main( int argc, char** argv )
  14. {
  15. // read image
  16. Mat img = imread("hand.jpg");
  17. if (img.empty())
  18. {
  19. cout<<"Read image fail!"<<endl;
  20. return 1;
  21. }
  22. imshow("input", img);
  23. // step 1: initialize parameters
  24. const int MAX_ITERATION = 20;
  25. float h = 20;
  26. float delta = 1 / MAX_ITERATION;
  27. Mat net = Mat::zeros(img.rows, img.cols, CV_32FC1);     // F
  28. Mat output= Mat::zeros(img.rows, img.cols, CV_32FC1);   // Y
  29. Mat threshold = Mat::ones(img.rows, img.cols, CV_32FC1);// E
  30. Mat image = Mat::zeros(img.rows, img.cols, CV_32FC1);   // S
  31. vector<Mat> iteraOutput;
  32. // step 2: normalize image to [0, 1.0]
  33. Mat temp;
  34. cvtColor(img, temp, CV_RGB2GRAY);
  35. double maxP, minP;
  36. minMaxLoc(temp, &minP, &maxP);
  37. temp.convertTo(image, CV_32FC1, 1.0 / (maxP - minP), - minP / (maxP - minP));
  38. // step 3: start iteration
  39. for (int k = 1; k <= MAX_ITERATION; k++)
  40. {
  41. cout<<" Iteration: "<< k <<endl;
  42. // formula (7)
  43. float lamda = 1.0 / (MAX_ITERATION + k);
  44. for (int i = 1; i < image.rows - 1; i++)
  45. {
  46. for (int j = 1; j < image.cols - 1; j++)
  47. {
  48. // formula (6)
  49. float weight = (1 - abs(image.at<float>(i, j) - image.at<float>(i - 1, j))) +
  50. (1 - abs(image.at<float>(i, j) - image.at<float>(i + 1, j))) +
  51. (1 - abs(image.at<float>(i, j) - image.at<float>(i, j - 1))) +
  52. (1 - abs(image.at<float>(i, j) - image.at<float>(i, j + 1))) +
  53. 0.5 * (1 - abs(image.at<float>(i, j) - image.at<float>(i - 1, j - 1))) +
  54. 0.5 * (1 - abs(image.at<float>(i, j) - image.at<float>(i - 1, j + 1))) +
  55. 0.5 * (1 - abs(image.at<float>(i, j) - image.at<float>(i + 1, j - 1))) +
  56. 0.5 * (1 - abs(image.at<float>(i, j) - image.at<float>(i + 1, j + 1)));
  57. // formula (4)
  58. net.at<float>(i, j) = net.at<float>(i, j) - lamda + image.at<float>(i, j) + weight;
  59. // formula (5)
  60. threshold.at<float>(i, j) = threshold.at<float>(i, j) - delta + h * output.at<float>(i, j);
  61. // formula (2)
  62. output.at<float>(i, j) = net.at<float>(i, j) > threshold.at<float>(i, j) ? 1.0 : 0.0;
  63. }
  64. }
  65. iteraOutput.push_back(255 * output);
  66. }
  67. // step 4: create a big picture to show all iteration process result
  68. Mat showImg = Mat::zeros(img.rows * 4, img.cols * 5, CV_32FC1);
  69. for (int i = 0; i < 4; i++)
  70. {
  71. for (int j = 0; j < 5; j++)
  72. {
  73. Rect roi(img.cols * j, img.rows * i, img.cols, img.rows);
  74. resize(iteraOutput[i * 4 + j], showImg(roi), roi.size());
  75. }
  76. }
  77. imshow("output", showImg);
  78. waitKey(-1);
  79. return 0;
  80. }

三、结果

输入的待分割图像:

迭代20次,每次的迭代结果:

四、分析

要分割的图像挺简单的,但分割出来的效果感觉不咋地(当然了,如果我的代码有错,还望大家指出,谢谢)。我在想,这个迭代其实是不是一个能量最小化的过程呢?如果不是能量最小化的过程,那么迭代的意义在哪呢?难道就像是在穷举先验分割结果,然后挑出一个好的吗?那可不可以将其纳入到某种能量最小化的框架里面,然后进行迭代优化呢?每次的迭代,能量都会变小,能量最小的时候,对应的就是最有的分割结果。就像一些图割算法一样。

了解有限,学识有限,还望大家不吝指点。谢谢。

五、后话

有位朋友发现了上面代码的一个错误(感谢这位朋友),也就是论文的公式(4),计算weight的时候,我少乘了Y(n-1),然后修改后感觉分割效果更不咋的,哈哈。修改后代码如下:

[cpp] view plaincopy
  1. /******************************************************************/
  2. // Image segmentation by ICM
  3. // Author : zouxy
  4. // Date   : 2013-11-28
  5. // HomePage : http://blog.csdn.net/zouxy09
  6. // Email  : zouxy09@qq.com
  7. // Reference: 牛建伟等,基于修正交叉视觉皮质模型的图像分割方法
  8. /******************************************************************/
  9. #include "opencv2/opencv.hpp"
  10. #include <iostream>
  11. using namespace std;
  12. using namespace cv;
  13. int main( int argc, char** argv )
  14. {
  15. // read image
  16. Mat img = imread("hand.jpg");
  17. if (img.empty())
  18. {
  19. cout<<"Read image fail!"<<endl;
  20. return 1;
  21. }
  22. imshow("input", img);
  23. // step 1: initialize parameters
  24. const int MAX_ITERATION = 20;
  25. float h = 20;
  26. float delta = 1 / MAX_ITERATION;
  27. Mat net = Mat::zeros(img.rows, img.cols, CV_32FC1);     // F
  28. Mat output= Mat::zeros(img.rows, img.cols, CV_32FC1);   // Y
  29. Mat threshold = Mat::ones(img.rows, img.cols, CV_32FC1);// E
  30. Mat image = Mat::zeros(img.rows, img.cols, CV_32FC1);   // S
  31. vector<Mat> iteraOutput;
  32. // step 2: normalize image to [0, 1.0]
  33. Mat temp;
  34. cvtColor(img, temp, CV_RGB2GRAY);
  35. double maxP, minP;
  36. minMaxLoc(temp, &minP, &maxP);
  37. temp.convertTo(image, CV_32FC1, 1.0 / (maxP - minP), - minP / (maxP - minP));
  38. // step 3: start iteration
  39. for (int k = 1; k <= MAX_ITERATION; k++)
  40. {
  41. cout<<" Iteration: "<< k <<endl;
  42. // formula (7)
  43. float lamda = 1.0 / (MAX_ITERATION + k);
  44. Mat preOutput;
  45. if (k == 1)
  46. output.copyTo(preOutput);
  47. else
  48. preOutput = iteraOutput[iteraOutput.size()-1];
  49. for (int i = 1; i < image.rows - 1; i++)
  50. {
  51. for (int j = 1; j < image.cols - 1; j++)
  52. {
  53. // formula (6)
  54. float weight = (1 - abs(image.at<float>(i, j) - image.at<float>(i - 1, j))) * preOutput.at<float>(i - 1, j) +
  55. (1 - abs(image.at<float>(i, j) - image.at<float>(i + 1, j))) * preOutput.at<float>(i + 1, j) +
  56. (1 - abs(image.at<float>(i, j) - image.at<float>(i, j - 1))) * preOutput.at<float>(i, j - 1) +
  57. (1 - abs(image.at<float>(i, j) - image.at<float>(i, j + 1))) * preOutput.at<float>(i, j + 1) +
  58. 0.5 * (1 - abs(image.at<float>(i, j) - image.at<float>(i - 1, j - 1))) * preOutput.at<float>(i - 1, j - 1) +
  59. 0.5 * (1 - abs(image.at<float>(i, j) - image.at<float>(i - 1, j + 1))) * preOutput.at<float>(i - 1, j + 1) +
  60. 0.5 * (1 - abs(image.at<float>(i, j) - image.at<float>(i + 1, j - 1))) * preOutput.at<float>(i + 1, j - 1) +
  61. 0.5 * (1 - abs(image.at<float>(i, j) - image.at<float>(i + 1, j + 1))) * preOutput.at<float>(i + 1, j + 1);
  62. // formula (4)
  63. net.at<float>(i, j) = net.at<float>(i, j) - lamda + image.at<float>(i, j) + weight;
  64. // formula (5)
  65. threshold.at<float>(i, j) = threshold.at<float>(i, j) - delta + h * output.at<float>(i, j);
  66. // formula (2)
  67. output.at<float>(i, j) = net.at<float>(i, j) > threshold.at<float>(i, j) ? 1.0 : 0.0;
  68. }
  69. }
  70. iteraOutput.push_back(255 * output);
  71. }
  72. // step 4: create a big picture to show all iteration process result
  73. Mat showImg = Mat::zeros(img.rows * 4, img.cols * 5, CV_32FC1);
  74. for (int i = 0; i < 4; i++)
  75. {
  76. for (int j = 0; j < 5; j++)
  77. {
  78. Rect roi(img.cols * j, img.rows * i, img.cols, img.rows);
  79. resize(iteraOutput[i * 4 + j], showImg(roi), roi.size());
  80. }
  81. }
  82. imshow("output", showImg);
  83. waitKey(-1);
  84. return 0;
  85. }

效果图如下:

图像分割之(六)交叉视觉皮质模型(ICM)相关推荐

  1. Keras之MLP:利用MLP【Input(8)→(12)(relu)→O(sigmoid+二元交叉)】模型实现预测新数据(利用糖尿病数据集的八个特征实现二分类预测

    Keras之MLP:利用MLP[Input(8)→(12)(relu)→O(sigmoid+二元交叉)]模型实现预测新数据(利用糖尿病数据集的八个特征实现二分类预测 目录 输出结果 实现代码 输出结果 ...

  2. Python 交叉验证模型评估

    Python 交叉验证模型评估 1 声明 本文的数据来自网络,部分代码也有所参照,这里做了注释和延伸,旨在技术交流,如有冒犯之处请联系博主及时处理. 2 交叉验证模型评估简介 交叉验证(Cross V ...

  3. 花书+吴恩达深度学习(十六)序列模型之双向循环网络 BRNN 和深度循环网络 Deep RNN

    目录 0. 前言 1. 双向循环网络 BRNN(Bidirectional RNN) 2. 深度循环网络 Deep RNN 如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~ 花 ...

  4. 文献解读:纵向数据的测量不变性和交叉滞后模型(一)

    今天本来想看看交叉滞后怎么做,然后给粉丝写写教程,查资料的过程中发现了一篇很好的文献,记录下来分享给大家. 这篇文献主要是讲如何用R的lavaan包做交叉滞后模型的. 文献一开始首先介绍Measure ...

  5. 数据挖掘与数据化运营实战. 3.5 交叉销售模型

    3.5 交叉销售模型 交叉销售这个概念在传统行业里其实已经非常成熟了,也已被普遍应用,其背后的理论依据是一旦客户购买了商品(或者成为付费用户),企业就会想方设法保留和延长这些客户在企业的生命周期和客户 ...

  6. 随机截距交叉滞后模型(Random Intercepts Cross-Lagged Panel Model, RI-CLPM)

    交叉滞后面板模型(Cross-Lagged Panel Model, CLPM) 说到随机截距交叉滞后模型(Random Intercepts Cross-Lagged Panel Model, RI ...

  7. R数据分析:交叉滞后模型非专业解释

    今天继续写交叉滞后模型,本文大部分内容参考自文献:Kearney, Michael. (2017). Cross-Lagged Panel Analysis. 所以不论自己写的怎么样都建议大家去瞅瞅原 ...

  8. 《自然语言处理(哈工大 关毅 64集视频)》学习笔记:第六章 markov模型

    视频列表: 38 markov模型(一) 39 markov模型(二) 40 markov模型(三) 41 markov模型(四) 42 markov模型(五) 38 markov模型(一) 第六章 ...

  9. 机器学习(六)分类模型--线性判别法、距离判别法、贝叶斯分类器

    机器学习(六)分类模型--线性判别法.距离判别法.贝叶斯分类器 首先我们了解常见的分类模型和算法有哪些 线性判别法 简单来说就是用一些规定来寻找某一条直线,用直线划分学习集,然后根据待测点在直线的哪一 ...

最新文章

  1. 福建工程学院计算机科学类投档线,2019年福建工程学院美术类本科专业投档分数线...
  2. 浅入浅出TensorFlow 8 - 行人分割
  3. 第十五届全国大学生智能汽车竞赛深度学习组别预选赛提交作品队伍
  4. linux驱动由浅入深系列:高通sensor架构实例分析之一
  5. php microtime true输出说明,php使用microtime(true)查看代码执行时间
  6. oracle系统AP对应的凭证编号,AP主要账户及会计分录
  7. Hyperledger fabric并发并行性
  8. 华为p50 pro 鸿蒙,华为p50pro有双系统吗-采用鸿蒙系统吗
  9. git 镜像下载和基本使用
  10. python数据分析之爬虫七:爬取豆瓣书籍排行榜Top250
  11. 训练模型时候显存爆炸的一种可能性以及解决办法
  12. (H5)canvas实现裁剪图片和马赛克功能,以及又拍云上传图片
  13. 安装Ubuntu 系统
  14. arm linux alsa驱动使用 usb 声卡
  15. 计算机基础——Windows 7操作系统
  16. linux下tree指令的用法
  17. 互联网+智能化实验室建设将成发展趋势
  18. MIPS 五级流水线
  19. Livy:基于Apache Spark的REST服务
  20. 守望账号与服务器失去连接,win10玩守望先锋与服务器一直断开连接的解决方法...

热门文章

  1. Java问题排查工具箱
  2. 由浅入深区块链技术,程序员不得不看的十篇好文
  3. Awk by Example--转载
  4. Spring MVC 中 HandlerInterceptorAdapter的使用--转载
  5. 用 Java 技术创建 RESTful Web 服务--转载
  6. 转载--tomcat整合apr
  7. 谷歌研发能处理多域多任务的机器学习模型——MultiModel
  8. Java蓝牙电话_Android mediaPlayer和蓝牙汽车/耳机电话
  9. MySQL - 存储引擎初探
  10. Oracle-OLAP和OLTP解读