图像拼接比较经典的是SIFT、SURF、ORB等算法。其中SURF是SIFT的升级版,在实时性上要优于后者。本次先实现图片级的融合、拼接。
SURF的构建流程是:构建Hessian矩阵、H矩阵判别式、构建尺度空间、精确定位特征点、主方向确定、特征点描述子生成、误匹配点剔除、融合图像、优化连接处的图像。

//zjy  2021.7.19 周五   SURF图像融合
#include <iostream>
#include <stdio.h>
#include "opencv2/core.hpp"
#include "opencv2/core/utility.hpp"
#include "opencv2/core/ocl.hpp"
#include "opencv2/imgcodecs.hpp"
#include "opencv2/highgui.hpp"
#include "opencv2/features2d.hpp"
#include "opencv2/calib3d.hpp"
#include "opencv2/imgproc.hpp"
#include"opencv2/xfeatures2d.hpp"
#include"opencv2/ml.hpp" using namespace cv;
using namespace std;
using namespace cv::xfeatures2d;
using namespace cv::ml;void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst);typedef struct     //结构体定义,126行-134行,four_corners_t是一个变量
{Point2f left_top;Point2f left_bottom;     //point2f代表2维,需要X,Y轴来确定Point2f right_top;Point2f right_bottom;
}four_corners_t;     four_corners_t corners;void CalcCorners(const Mat& H, const Mat& src)    //const保护数据的值不被修改
{double v2[] = { 0, 0, 1 };//左上角double v1[3];//变换后的坐标值Mat V2 = Mat(3, 1, CV_64FC1, v2);  //列向量,CV_64FC164位浮点数,通道为1Mat V1 = Mat(3, 1, CV_64FC1, v1);  //列向量V1 = H * V2;//左上角(0,0,1)cout << "V2: " << V2 << endl;cout << "V1: " << V1 << endl;corners.left_top.x = v1[0] / v1[2];corners.left_top.y = v1[1] / v1[2];//左下角(0,src.rows,1)v2[0] = 0;v2[1] = src.rows;v2[2] = 1;V2 = Mat(3, 1, CV_64FC1, v2);  //列向量V1 = Mat(3, 1, CV_64FC1, v1);  //列向量V1 = H * V2;corners.left_bottom.x = v1[0] / v1[2];corners.left_bottom.y = v1[1] / v1[2];//右上角(src.cols,0,1)v2[0] = src.cols;v2[1] = 0;v2[2] = 1;V2 = Mat(3, 1, CV_64FC1, v2);  //列向量V1 = Mat(3, 1, CV_64FC1, v1);  //列向量V1 = H * V2;corners.right_top.x = v1[0] / v1[2];corners.right_top.y = v1[1] / v1[2];//右下角(src.cols,src.rows,1)v2[0] = src.cols;v2[1] = src.rows;v2[2] = 1;V2 = Mat(3, 1, CV_64FC1, v2);  //列向量V1 = Mat(3, 1, CV_64FC1, v1);  //列向量V1 = H * V2;corners.right_bottom.x = v1[0] / v1[2];corners.right_bottom.y = v1[1] / v1[2];
}int main()
{Mat a = imread("C:\\Users\\dell\\Desktop\\OpenCV project\\SURF\\surf_1.jpg", 1);//右图  Mat b = imread("C:\\Users\\dell\\Desktop\\OpenCV project\\SURF\\surf_2.jpg", 1);//左图Ptr<SURF> surf;            //创建方式和OpenCV2中的不一样,并且要加上命名空间xfreatures2d//否则即使配置好了还是显示SURF为未声明的标识符  surf = SURF::create(800);BFMatcher matcher;         //实例化一个暴力匹配器Mat c, d;vector<KeyPoint> key1, key2;vector<DMatch> matches;    //DMatch是用来描述匹配好的一对特征点的类,包含这两个点之间的相关信息//比如左图有个特征m,它和右图的特征点n最匹配,这个DMatch就记录它俩最匹配,并且还记录m和n的//特征向量的距离和其他信息,这个距离在后面用来做筛选surf->detectAndCompute(a, Mat(), key1, c);//输入图像,输入掩码用于屏蔽源图像中的特定区域,输入特征点矢量数组 ,存放所有特征点的描述向量surf->detectAndCompute(b, Mat(), key2, d);//这个Mat行数为特征点的个数,列数为每个特征向量的尺寸,SURF是64(维)matcher.match(d, c, matches);             //匹配,数据来源是特征向量,结果存放在DMatch类型里面  //sort函数对数据进行升序排列sort(matches.begin(), matches.end());     //筛选匹配点,根据match里面特征对的距离从小到大排序vector<DMatch> good_matches;        //保留好的特征点,剔除误匹配点int ptsPairs = std::min(50, (int)(matches.size() * 0.15));   cout << ptsPairs << endl;for (int i = 0; i < ptsPairs; i++){good_matches.push_back(matches[i]);//距离最小的50个压入新的DMatch}Mat outimg;                            //drawMatches这个函数直接画出摆在一起的图drawMatches(b, key2, a, key1, good_matches, outimg, Scalar::all(-1), Scalar::all(-1), vector<char>(), DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS);  //绘制匹配点  imshow("combine", outimg);//计算图像配准点vector<Point2f> imagePoints1, imagePoints2;for (int i = 0; i < good_matches.size(); i++){imagePoints2.push_back(key2[good_matches[i].queryIdx].pt);imagePoints1.push_back(key1[good_matches[i].trainIdx].pt);}//获取图像1到图像2的投影映射矩阵 尺寸为3*3,剔除误配点  Mat homo = findHomography(imagePoints1, imagePoints2, RANSAC);//也可以使用getPerspectiveTransform方法获得透视变换矩阵,不过要求只能有4个点,效果稍差  //Mat   homo=getPerspectiveTransform(imagePoints1,imagePoints2);  cout << "变换矩阵为:\n" << homo << endl << endl; //输出映射矩阵   //计算配准图的四个顶点坐标CalcCorners(homo, a);cout << "left_top:" << corners.left_top << endl;cout << "left_bottom:" << corners.left_bottom << endl;cout << "right_top:" << corners.right_top << endl;cout << "right_bottom:" << corners.right_bottom << endl;//图像配准  Mat imageTransform1, imageTransform2;warpPerspective(a, imageTransform1, homo, Size(MAX(corners.right_top.x, corners.right_bottom.x), b.rows));//warpPerspective(a, imageTransform2, adjustMat*homo, Size(b.cols*1.3, b.rows*1.8));imshow("orb_trans", imageTransform1);imwrite("orb_trans.jpg", imageTransform1);//创建拼接后的图,需提前计算图的大小int dst_width = imageTransform1.cols;  //取最右点的长度为拼接图的长度int dst_height = b.rows;Mat dst(dst_height, dst_width, CV_8UC3);dst.setTo(0);imageTransform1.copyTo(dst(Rect(0, 0, imageTransform1.cols, imageTransform1.rows)));b.copyTo(dst(Rect(0, 0, b.cols, b.rows)));imshow("surf_result", dst);OptimizeSeam(b, imageTransform1, dst);imshow("opm_surf_result", dst);imwrite("opm_surf_result.jpg", dst);waitKey();return 0;
}//优化两图的连接处,使得拼接自然
void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst)
{int start = MIN(corners.left_top.x, corners.left_bottom.x);//开始位置,即重叠区域的左边界  double processWidth = img1.cols - start;//重叠区域的宽度  int rows = dst.rows;int cols = img1.cols;   //注意,是列数*通道数double alpha = 1;       //img1中像素的权重  for (int i = 0; i < rows; i++){uchar* p = img1.ptr<uchar>(i);  //获取第i行的首地址uchar* t = trans.ptr<uchar>(i);uchar* d = dst.ptr<uchar>(i);for (int j = start; j < cols; j++){//如果遇到图像trans中无像素的黑点,则完全拷贝img1中的数据if (t[j * 3] == 0 && t[j * 3 + 1] == 0 && t[j * 3 + 2] == 0){alpha = 1;}else{//img1中像素的权重,与当前处理点距重叠区域左边界的距离成正比,实验证明,这种方法确实好  alpha = (processWidth - (j - start)) / processWidth;}d[j * 3] = p[j * 3] * alpha + t[j * 3] * (1 - alpha);d[j * 3 + 1] = p[j * 3 + 1] * alpha + t[j * 3 + 1] * (1 - alpha);d[j * 3 + 2] = p[j * 3 + 2] * alpha + t[j * 3 + 2] * (1 - alpha);}}
}


处理后的图片如上,图片是用别人的样本图片做的,自己采集时注意调整分辨率。做图像拼接的时候突然想到可能要往双目实时全景拼接上去做…增加难度。移植怎么搞???想到用定时采样的办法,也觉得不稳妥。

代码解析:
1、four_corners_t 这个结构:
这个结构是用来在后面进行图像拼接之前,实现图像的变换的时候使用的用来存放变换之后的图像的四个角的坐标。后面会有。
2、SURF特征检测和匹配的使用:

Ptr<SURF> surf;            //创建方式和OpenCV2中的不一样,并且要加上命名空间xfreatures2d//否则即使配置好了还是显示SURF为未声明的标识符  surf = SURF::create(800);BFMatcher matcher;         //实例化一个暴力匹配器Mat c, d;   //特征点描述矩阵vector<KeyPoint> key1, key2;   //特征点vector<DMatch> matches;    //DMatch是用来描述匹配好的一对特征点的类,包含这两个点之间的相关信息//比如左图有个特征m,它和右图的特征点n最匹配,这个DMatch就记录它俩最匹配,并且还记录m和n的//特征向量的距离和其他信息,这个距离在后面用来做筛选//检测和计算图像的关键点和描述surf->detectAndCompute(a, Mat(), key1, c);//输入图像,输入掩码用于屏蔽源图像中的特定区域,输入特征点矢量数组 ,存放所有特征点的描述向量surf->detectAndCompute(b, Mat(), key2, d);//这个Mat行数为特征点的个数,列数为每个特征向量的尺寸,SURF是64(维)

定义一个surf,参数为门限值,调整这个可以调整检测精度,越大越高,不过相应的速度也会慢;detectAndCompute函数实现了检测特征点并计算特征描述矩阵存储到c, d中。
3、接下来的匹配类DMatch类:这个类存储了图像特征之间的匹配的信息:
CV_PROP_RW int queryIdx; // query descriptor index 查询Index
CV_PROP_RW int trainIdx; // train descriptor index 训练Index
CV_PROP_RW int imgIdx; // train image index label?
CV_PROP_RW float distance; //特征点之间的欧氏距离
对这个类还不是很理解,不过他这三个变量 queryIdx trainIdx distance还是比较重要的。distance不用说,两个特征点之间的距离,trainIdx应该是在训练分类器时输入训练的点的Index;queryIdx是在利用分类器做回归的时候对应的Index (两个不同的图片,一个用来训练,一个用来做测试,训练与测试(分类)的对应的特征点应该是对应的)。

根据欧氏距离选择匹配良好的点。
4、画出匹配结果

Mat outimg;                            //drawMatches这个函数直接画出摆在一起的图drawMatches(b, key2, a, key1, good_matches, outimg, Scalar::all(-1), Scalar::all(-1), vector<char>(), DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS);  //绘制匹配点  imshow("combine", outimg);

5、提取到特征之后对2图像进行变换,投影到图像1下
首先在得到变换矩阵之前,先得到特征点的Point2f类型的坐标:

vector<Point2f> imagePoints1, imagePoints2;for (int i = 0; i < good_matches.size(); i++){imagePoints2.push_back(key2[good_matches[i].queryIdx].pt);imagePoints1.push_back(key1[good_matches[i].trainIdx].pt);}

6、

Mat homo = findHomography(imagePoints1, imagePoints2, RANSAC);//获取图像2到图像1的投影映射矩阵 3*3//也可以使用getPerspectiveTransform方法获得透视变换矩阵,不过要求只能有4个点,效果稍差  //Mat   homo=getPerspectiveTransform(imagePoints1,imagePoints2);  cout << "变换矩阵为:\n" << homo << endl << endl; //输出映射矩阵   //计算配准图的四个顶点坐标并输出CalcCorners(homo, a);cout << "left_top:" << corners.left_top << endl;cout << "left_bottom:" << corners.left_bottom << endl;cout << "right_top:" << corners.right_top << endl;cout << "right_bottom:" << corners.right_bottom << endl;//图像配准  Mat imageTransform1, imageTransform2;warpPerspective(a, imageTransform1, homo, Size(MAX(corners.right_top.x, corners.right_bottom.x), b.rows));//图像配准 warpPerspective 对图像进行透视变换 变换后矩阵的宽高都变化//warpPerspective(a, imageTransform2, adjustMat*homo, Size(b.cols*1.3, b.rows*1.8));imshow("orb_trans", imageTransform1);imwrite("orb_trans.jpg", imageTransform1);

其中,calCorners利用的是齐次坐标系计算坐标面比较方便。warpPerspective是OpenCV自带的透视变换函数。
7、变换之后进行图像的复制,构成新的图片:

//创建拼接后的图,需提前计算图的大小int dst_width = imageTransform1.cols;  //取最右点的长度为拼接图的长度int dst_height = b.rows;Mat dst(dst_height, dst_width, CV_8UC3);dst.setTo(0);//构成图片  //复制img2到dist的右半部分 先复制transform2的图片(因为这个尺寸比较大,后来的图片可以覆盖到他)imageTransform1.copyTo(dst(Rect(0, 0, imageTransform1.cols, imageTransform1.rows)));b.copyTo(dst(Rect(0, 0, b.cols, b.rows)));

copyTo函数在不使用Mask参数时复制的话,将图片黑色部分忽略,仅复制有颜色的部分。也就是黑色会被替换掉。所以要先复制imgTransform2,这个里面会因为变换而产生许多黑色的部分,然后再复制img1(也就是在左边 ,没有变换的图像)过去覆盖掉黑色。反过来的话黑色会把它覆盖掉。
8、优化连接处
optimizeSeam函数来优化拼接,思想大概是alpha参数根据2图片(变化的图片,右侧的图片)与1重叠的位置来设置值,在重叠部分的值是由两个图片的像素值α加权得到的。注意下面的*3,因为RGB。


//优化两图的连接处,使得拼接自然
void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst)
{int start = MIN(corners.left_top.x, corners.left_bottom.x);//开始位置,即重叠区域的左边界  double processWidth = img1.cols - start;//重叠区域的宽度  int rows = dst.rows;int cols = img1.cols;   //注意,是列数*通道数double alpha = 1;       //img1中像素的权重  for (int i = 0; i < rows; i++){uchar* p = img1.ptr<uchar>(i);  //获取第i行的首地址uchar* t = trans.ptr<uchar>(i);uchar* d = dst.ptr<uchar>(i);for (int j = start; j < cols; j++){//如果遇到图像trans中无像素的黑点,则完全拷贝img1中的数据if (t[j * 3] == 0 && t[j * 3 + 1] == 0 && t[j * 3 + 2] == 0){alpha = 1;}else{//img1中像素的权重,与当前处理点距重叠区域左边界的距离成正比,实验证明,这种方法确实好  alpha = (processWidth - (j - start)) / processWidth;}d[j * 3] = p[j * 3] * alpha + t[j * 3] * (1 - alpha);d[j * 3 + 1] = p[j * 3 + 1] * alpha + t[j * 3 + 1] * (1 - alpha);d[j * 3 + 2] = p[j * 3 + 2] * alpha + t[j * 3 + 2] * (1 - alpha);}}
}

参考下面的博文比较多,要消化掉。
参考:https://blog.csdn.net/Architet_Yang/article/details/81274571

HI3559算法移植之OpenCV图像拼接、配准和图像融合技术(三)相关推荐

  1. HI3559算法移植之OpenCV图像拼接、配准和图像融合技术(四)

    之前已经写了基于SURF的图片融合,但是在实际项目中,更多的是实时视频/双摄像头的融合.这里采用柱面投影+模板匹配+渐入渐出融合的方法,分辨率是816×612.经测试加入柱面投影的效果不如未加入的. ...

  2. 【图像处理】图像拼接——图像配准、图像融合

    图像拼接--图像配准.图像融合 此文主要三点:SIFT.SFLN.伪逆算法 实现图像拼接简单来说有以下几步: 图像配准 透视变换 特征提取方法--SIFT 基于SLFN的图像配准方案 图像融合 此文主 ...

  3. 图像拼接和图像融合技术

    from: OpenCV探索之路(二十四)图像拼接和图像融合技术 图像拼接在实际的应用场景很广,比如无人机航拍,遥感图像等等,图像拼接是进一步做图像理解基础步骤,拼接效果的好坏直接影响接下来的工作,所 ...

  4. 合成孔径成像算法与实现_MIMO OFDM宽幅SAR成像仿真与图像融合技术

    在之前的<UWB OFDM信号产生,MIMO-SAR显优势>一文中,我们曾介绍了正交频分复用(OFDM)信号的产生原理及在雷达应用中的优势.本文将在此基础上介绍MIMO OFDM宽幅SAR ...

  5. OpenCV精进之路(十六):图像分解和融合技术——图像拼接和图像融合技术

    图像拼接在实际的应用场景很广,比如无人机航拍,遥感图像等等,图像拼接是进一步做图像理解基础步骤,拼接效果的好坏直接影响接下来的工作,所以一个好的图像拼接算法非常重要. 再举一个身边的例子吧,你用你的手 ...

  6. opencv 图像拼接和图像融合技术

    图像拼接在实际的应用场景很广,比如无人机航拍,遥感图像等等,图像拼接是进一步做图像理解基础步骤,拼接效果的好坏直接影响接下来的工作,所以一个好的图像拼接算法非常重要. 再举一个身边的例子吧,你用你的手 ...

  7. 图像拼接和图像融合技术(基于Opencv)

    图像拼接在实际的应用场景很广,比如无人机航拍,遥感图像等等,图像拼接是进一步做图像理解基础步骤,拼接效果的好坏直接影响接下来的工作,所以一个好的图像拼接算法非常重要. 再举一个身边的例子吧,你用你的手 ...

  8. OpenCV图像拼接和图像融合技术

    转自:https://www.cnblogs.com/skyfsm/p/7411961.html 图像拼接在实际的应用场景很广,比如无人机航拍,遥感图像等等,图像拼接是进一步做图像理解基础步骤,拼接效 ...

  9. pythonopencv图像拼接缝隙_OpenCV探索之路(二十四)图像拼接和图像融合技术

    图像拼接在实际的应用场景很广,比如无人机航拍,遥感图像等等,图像拼接是进一步做图像理解基础步骤,拼接效果的好坏直接影响接下来的工作,所以一个好的图像拼接算法非常重要. 再举一个身边的例子吧,你用你的手 ...

最新文章

  1. 周报 2016.04.10
  2. 康奈尔大学王飞博士:AI处理医疗数据面临的8大挑战
  3. signature=78718ebfda6f8d955fae3e9c9c284f5d,SKI SAFETY BINDING WITH SWIVELLING SOLE PLATE
  4. roc与auc曲线的理解
  5. 【Redis】6.Redis key通用指令以及数据库的通用操作
  6. 基于xtrabackup GDIT方式不锁库作主从同步(主主同步同理,反向及可)
  7. 基因功能不确定?做一下单基因GSEA怎么样?
  8. python路径拼接os.path.join()函数完全教程_详解python路径拼接os.path.join()函数的用法...
  9. 如何维持手机电池寿命_手机电池不耐用,都怪这些充电坏毛病
  10. TCP/IP数据包结构具体解释
  11. Python使用for循环打印九九乘法表
  12. 足球比赛两强相遇概率
  13. 网友发给我一个游戏钓鱼网站,我用python渗透了该网站所有信息!
  14. 如何在EXCEL中练习VBA?
  15. Python+OpenCV3.3图像处理视频教程-贾志刚-专题视频课程
  16. 网络基础:动态路由OSPF配置
  17. 学习笔记:Qt程序打包发布
  18. EN 10088 1.4006(X12Cr13)马氏体不锈钢硬度
  19. caffe生成lmdb数据集的脚本
  20. android 视频开发2分之2(仿美拍,糗百)

热门文章

  1. Kettle使用【插入\更新】组件非常慢
  2. CUDA实例系列三:利用GPU优化向量规约问题
  3. 硬盘分区整数G计算小公式
  4. HQChart使用教程30-K线图如何对接第3方数据20-信息地雷公告数据
  5. 爬虫 字体反爬分析(1) 人人车 -- 含源码
  6. 2021.2.6课程摘要(逻辑教育-王劲胜)
  7. 服务器放在北极什么位置,服务器放在北极和深海,是谁给了你勇气?
  8. 第三章程序的机器级表示
  9. 大数据学习笔记(十)-Hive中的Storage format
  10. 笑死!程序员延寿指南开源了