干货 | 相机标定:机器人手眼标定
作者丨张贶恩@知乎
来源丨https://zhuanlan.zhihu.com/p/76578691
编辑丨OpenCV与AI深度学习
相机标定是机器人视觉中非常重要的一步,可以帮助机器人转换识别到的视觉信息,从而完成后续的控制工作,例如视觉抓取等等。笔者做过一些机器人手眼标定的工作,在此用尽量简单的语言来描述下机器人手眼标定的流程。本文的目的在于让大家对于相机标定有一个感性的认知,能够知道不同条件下机器人手眼标定的流程,具体的实现方法及技术细节还需要大家自行google。
▌1. 坐标系标定通用方法
机器人手眼标定其实就是两个坐标系之间转换关系的标定。假设现在有两个坐标系robot和camera,并且我们已知对应的几个固定点 在这两个坐标系的坐标 和 。那么根据坐标系转换公式,我们可以得到:
[1]
上式中 就代表我们希望求出来的相机到机器人的转换矩阵。 和 为补1后的“齐次坐标”: ,这样我们的齐次坐标变换矩阵 便可以同时包含旋转以及平移。
只要学过线性代数的同学应该都清楚,式[1]相当于就是一个N元一次方程,只要点 的个数大于我们求解的转换矩阵维度同时这些点线性不相关,我们便可以通过伪逆矩阵计算出来 :
[2]
计算出来的坐标变换矩阵便可以直接应用于后续的坐标变换。现在计算出来的矩阵允许坐标进行旋转,平移,以及任意方向的缩放。如果想要把这个坐标矩阵变成刚性的变换矩阵,只需要将其左上角的旋转矩阵正交化即可,但是加了这个约束后有可能降低坐标变换精度,即刚性变换矩阵约束太多,造成欠拟合。
当坐标变换存在非线性变换时,我们也可以设计并训练一个神经网络 直接拟合两组坐标之间的关系:
[3]
当然一般情况下,式[2]中的线性矩阵便足以描述机器人和相机之间的坐标转换关系。引入神经网络进行非线性拟合,训练集的拟合精度会非常高,但是当训练点个数不足的时候,会发生过拟合,使得实际测试时拟合精度反而降低。
通过以上的计算我们可以知道,只要我们能够同时测量出来固定点 在两个坐标系的坐标 和 并且测量出来多组数据,我们就可以很方便地计算出来坐标变换矩阵。当然在实际过程中我们有可能很难同时测量出来固定点 在两个坐标系的坐标,在后面我会分相机和机器人的情况讨论如何用一些小trick来尽量实现这个测量目标,如何进行标定,以及如何进行标定精度的验证。
▌2. 相机放置在固定位置,与机器人分开(eye-to-hand)
Fig 1. 机器人eye-to-hand标定
我们应该养成一个习惯,即遇到问题时先考虑我们的待求量和已知量。如Fig 1 所示。在eye-to-hand的问题中,待求量为相机到机器人基座坐标系的固定转换矩阵 。注意我们这里用的base而不是robot来表示机器人基座坐标系,因为需要与机器人其他部分的坐标系进行区分。机器人基座坐标系是固定不动的,而其他的关节,例如机器人末端坐标系end,是不断变化的。考虑到相机是固定在一个位置,因此相机只有相对于基座坐标系才是固定不动的,这样我们的待求量 是一个固定参数,标定才有意义。
根据我们在节1中讨论的,我们接下来需要测量几组固定点 在机器人基座坐标系下的坐标 和 在相机坐标系下的坐标 。那么怎么去测量这些点的坐标呢?接下来我们需要用到一个标定神器:棋盘格。
Fig 2. 棋盘格及角点识别
如Fig 2所示,我们可以通过相应的视觉算法准确地识别棋盘格的角点,具体算法在opencv,python,matlab,和ros等常用平台中都有包装好的函数,直接调用即可,在此不进行赘述。
通过识别棋盘格,我们便可以得到棋盘格角点在相机坐标系的坐标 ,但是这是二维坐标,通过相机内参和物体的深度信息我们可以计算出来 ,这个我们之后会分为3D相机和2D相机进行讨论。我们可以假设已经测量出来了,接下来我们只要测量出来对应的棋盘格点在机器人中的坐标 ,便可以标定出来机器人和相机之间的转换矩阵 。棋盘格在标定的时候,会固定在机器人的末端,而机器人的末端坐标系(end)到基座坐标系(base)可以通过机器人正向运动学计算得到。那么我们可以通过如下关系测量出来棋盘格点在机器人基座坐标系的坐标 :
[4]
式[4] 中, 和 分别代表机器人末端坐标系(end)到基座坐标系(base)的转换矩阵和棋盘格坐标系(board)到机器人末端坐标系(end)的转换矩阵。其中 可以实时根据机器人正运动学得到,而 可以通过设计一个固定尺寸的棋盘格得到。当棋盘格尺寸以及安装固定后,我们可以设棋盘格的左上角点为原点,然后测量或者根据设计尺寸得到棋盘格原点到机器人末端坐标原点的平移坐标。另外棋盘格平面一般与机器人末端平面平行,这样该原点的法向量也知道了,接下来便可以计算得到 。 代表棋盘格角点在棋盘格坐标系下的坐标,这个同样根据设计棋盘格的尺寸得到。另外我们需要注意棋盘格的角点在机器人坐标系和在图像坐标系的顺序需要一一对应,但是一般的方形棋盘格会有旋转对称的问题,即我们无法区分出来棋盘格的原点是左上角点还是右下角点,因此手眼标定时我们也可以用下面的非对称棋盘格。
Fig 3. 非对称棋盘格及角点识别,旋转180度可以区分左上角点跟右下角点
当我们根据式[4]计算得到棋盘格角点在机器人基座坐标系中的坐标 ,然后根据图像识别加相机内参和深度信息得到棋盘格在相机坐标系中的坐标 ,我们便可以根据节1所述的方法计算得到相机到机器人的转换矩阵:
[5]
接下来我会再讨论如何将棋盘格在图像中的坐标 ,转换为棋盘格在相机坐标系中的坐标 。
2.1 3D相机
相机的图像坐标为二维坐标,代表了在图像中的行和列数。将二维的图像坐标转换为在相机坐标系的三维坐标,是基于需要用到相机的内参公式和深度值:
[6]
式[6]中 为目标点的深度值,3D相机能够测出来目标点的深度,从而能够计算出目标点的3维坐标。列数 和行数 为目标点在图像中的坐标。 代表目标点在相机坐标系下的三维坐标。 和 为焦距,用于描述像素单位和三维坐标单位之间的比例关系。 和 为相机光心在图像中的投影位置,用于计算图像原点和相机坐标系原点之间的位移。
我们通过求逆矩阵,可以根据目标点的图像坐标计算得到其三维坐标。相机内参一般相机提供方会给出,有的相机提供方还会直接提供计算好的三维点云信息。如果相机提供方只给出了一个深度图,也没有给相机内参,则需要我们通过张正友标定法,标定出来相机的内参。opencv,python,matlab等提供了完善的内参标定工具包,可以直接使用。
Fig 4. 相机内参解释
2.2 2D相机
2.2.1 基于平面深度z进行目标3D坐标估计
在节2.1中我们说明了3D相机的情况下由2D图像坐标转换到3D相机坐标系的方法。如果我们使用的是2D相机,那么我们便缺失了深度信息,也就是式[6]中的 ,因此2D相机一般用于一个平面的物体识别。这样我们只需要估计出一个平面的 坐标,然后便可以根据式[6] 计算得到目标点在相机坐标系下的三维坐标 。
2.2.2 基于平面参考点集进行目标3D坐标估计
另外当2D相机只用于识别平面上物体的位移和旋转时,我们也可以直接通过下面这个方法直接估计目标点的位置和旋转。
Fig 5. 非垂直坐标系下目标点的表示
如Fig 5所示,我们可以通过摆放三个标志物于相机视野的角落,这样识别出来三个位置点 在图像坐标系中的坐标, , 。然后我们可以构建平行四边形,用两个坐标轴的向量去计算目标点在图像坐标系的坐标 。注意这里的坐标轴不需要是直角坐标轴,从而更加符合实际情况,因为实际贴标志物时不可能做到两条坐标轴完全垂直。
[7]
[8]
[9]
接下来,我们在机器人末端安装探针,通过触碰标志物,得到这三个位置点在机器人基座坐标系的坐标, , ,这三个点应该在一个平面上。因为式[9]计算出来的是一个比例关系,因此根据相似三角形的原理,我们可以计算出目标点点在机器人基座坐标系base的坐标 :
[10]
通过式[7]-[10]我们可以发现,通过建立一个平面中三个参考点的非直角坐标系,然后就可以将目标点的图像坐标 转换为在机器人基座坐标系的三维坐标 。这个方法需要目标平面与相机平面平行,但是不需要知道目标点的深度值,也不需要参考点为直角坐标系。
▌3. 相机固定在机器人末端(eye-in-hand)
3.1 3D相机
如Fig 6所示,当相机固定于机械臂末端时,此时相机坐标系与机械臂末端坐标系的变换关系固定,而与基座坐标系的变换关系会时刻变化,因此此时我们的待求量变为了相机坐标系camera到机械臂末端坐标系end的变换矩阵 。而根据Fig 6图中的各个坐标系的关系,我们可以列出来如下的坐标变换方程:
[11]
式[11]中 代表固定在某个位置的棋盘格的点到机器人基座坐标系的坐标。这个坐标的计算有两种途径:(i)在机械臂末端装上探针,直接由末端去触碰棋盘格点,根据机器人正向运动学得到的末端到基座坐标系的转换矩阵 加上棋盘格角点到末端坐标系的坐标 ,我们可以得到固定的棋盘格角点在机器人基座坐标系的坐标 。(ii)接下来我们在末端装上camera,因为3D相机可以直接测量出棋盘格角点以及对应的3D坐标 ,所以我们加上机器人末端到基座坐标系的转换矩阵 和相机坐标系到机器人末端坐标系的转换矩阵 便可以求出来棋盘格在机器人基座坐标系的坐标 。不过很不幸,相机坐标系到机器人末端坐标系的转换矩阵 是我们的待求量,我们还不知道,因此我们需要对式[11]进行下简单的变换:
[12]
观察式[12]我们可以发现,左式中的三个变量都是已知量,因此我们便可以通过机器人触碰棋盘格加相机识别棋盘格角点3D坐标的方法,求出来相机到机器人末端坐标系的转换矩阵 。
3.2 2D相机
正如节2.2中讨论的那样,2D相机因为无法测量深度值,因此无法直接重建出来目标物体的3D坐标信息。如果2D相机装在手臂上,那大多数是用来进行视觉伺服控制的,可以不用进行相机和机器人末端坐标系的标定。不过我们之前在节2.2.2中提出了一个基于平面参考点集的方法,在这里同样适用。只要目标物体所在工作平台的参考点集可以实时被测量到,同时我们又事先标定了这个参考点集在机器人基座坐标系的坐标,那么我们便可以通过同样的比例关系(见式[7]-[10]),计算得到目标点在机器人基座坐标系的坐标。
▌4. 标定结果评价
当手眼标定结束后,我们还希望对我们的标定结果进行评价。根据式[1]我们可以发现,目标点 在机器人坐标系中的坐标可以由两种途径获得,一种是直接通过机器人末端触碰的方式得到测量值 ,另外一种是通过相机识别加标定出来的转换矩阵得到预测值 。通过测量几组不同位置的目标点,我们可以比较测量值 和预测值 的距离误差。通过计算各个点的误差的均值和标准差,最终我们可以计算得出标定结果的系统误差(均值)和随机误差(标准差)。
本文讨论了在3D/2D eye-to-hand/eye-in-hand的不同情况下,机器人手眼关系的不同的标定方法。正如我们在节1中所提到的,标定两个坐标系最直接的方式就是尽量测量出来同一组点在不同坐标系下的坐标,从而直接可以通过矩阵伪逆的方法计算出来坐标变换矩阵。当然,还有更高级的方法在不满足上述条件下的情况也可以标定出来矩阵,也就是经典的Ax=xB问题的求解,其中A,B已知,x为待求量。这个求解方法我之后有时间会再写文章进行讨论。另外还有经典的张正友相机标定法,我也会抽空进行解读。
本文仅做学术分享,如有侵权,请联系删文。
3D视觉精品课程推荐:
1.面向自动驾驶领域的多传感器数据融合技术
2.面向自动驾驶领域的3D点云目标检测全栈学习路线!(单模态+多模态/数据+代码)
3.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进
4.国内首个面向工业级实战的点云处理课程
5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解
6.彻底搞懂视觉-惯性SLAM:基于VINS-Fusion正式开课啦
7.彻底搞懂基于LOAM框架的3D激光SLAM: 源码剖析到算法优化
8.彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM +LIO-SAM)
9.从零搭建一套结构光3D重建系统[理论+源码+实践]
10.单目深度估计方法:算法梳理与代码实现
11.自动驾驶中的深度学习模型部署实战
12.相机模型与标定(单目+双目+鱼眼)
13.重磅!四旋翼飞行器:算法与实战
重磅!3DCVer-学术论文写作投稿 交流群已成立
扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。
同时也可申请加入我们的细分方向交流群,目前主要有3D视觉、CV&深度学习、SLAM、三维重建、点云后处理、自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。
一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。
▲长按加微信群或投稿
▲长按关注公众号
3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列、三维点云系列、结构光系列、手眼标定、相机标定、激光/视觉SLAM、自动驾驶等)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近4000星球成员为创造更好的AI世界共同进步,知识星球入口:
学习3D视觉核心技术,扫描查看介绍,3天内无条件退款
圈里有高质量教程资料、答疑解惑、助你高效解决问题
觉得有用,麻烦给个赞和在看~
干货 | 相机标定:机器人手眼标定相关推荐
- 3D相机机器人手眼标定(眼在手上)全过程
3D相机机器人手眼标定(眼在手上)全过程 简述 目前在机器人高层规划中,机器人越来越依赖于摄像头的反馈信息,比如自动打磨,焊接,喷涂的智能规划,或者一些分拣,码垛的规划. 在项目开始前, 第一步要做的 ...
- python如何实现手眼定标_相机标定(一):机器人手眼标定
相机标定是机器人视觉中非常重要的一步,可以帮助机器人转换识别到的视觉信息,从而完成后续的控制工作,例如视觉抓取等等. 笔者做过一些机器人手眼标定的工作,在此用尽量简单的语言来描述下机器人手眼标定的流程 ...
- 标定板标定和九点标定的区别_标定系列一 | 机器人手眼标定的基础理论分析
旷视MegMaster机器人系列是旷视自主研发的一系列AI智能机器人硬件设备,基于旷视全球领先的人工智能算法及机器人技术,可实现搬运.分拣.托举.存储等功能,被广泛应用于物流仓储.工厂制造等场景.旷视 ...
- matlab tsai手眼标定程序代码_标定系列一 | 机器人手眼标定的基础理论分析
旷视MegMaster机器人系列是旷视自主研发的一系列AI智能机器人硬件设备,基于旷视全球领先的人工智能算法及机器人技术,可实现搬运.分拣.托举.存储等功能,被广泛应用于物流仓储.工厂制造等场景.旷视 ...
- 机器人手眼标定 (四轴六轴都适用)
机器人手眼标定 (四轴/六轴都适用) 问题解析 机器人手眼标定分为两种情况:eye-in-hand和eye-to-hand,即传感器是否安装在机器人手抓末端.不管是那种情况,手眼标定的科学问题都是 ...
- 四轴平面机器人手眼标定方法,eye-in-hand,亲测可用(草稿,后期整理)
之前阅读博客:机器人手眼标定 (四轴六轴都适用):https://blog.csdn.net/Stones1025/article/details/90664168 发现有如下问题,所写方法并不适用于 ...
- 相机标定(三)——手眼标定
相机标定(一)--内参标定与程序实现 相机标定(二)--图像坐标与世界坐标转换 相机标定(三)--手眼标定 一.简述 手眼标定目的在于实现物体在世界坐标系和机器人坐标系中的变换. 在标定时,一般在工作 ...
- UR机器人装箱姿态_UR10 RG2机械臂手臂+RealsenseZR300 机器人手眼标定 系列第四篇
UR10 RG2机械臂手臂+RealsenseZR300 机器人手眼标定 系列第四篇 发布时间:2018-09-18 17:43, 浏览次数:1180 , 标签: UR RG RealsenseZR ...
- 遨博协作机器人ROS开发 - 机器人手眼标定原理
目录 一.简介 二.环境版本 三.学习目标 四.知识储备 五.课堂小结 六.课后练习 一.简介 大家好,欢迎关注遨博学院带来的系列技术分享文章(协作机器人ROS开发),在前面课程中我们讲解了Intel ...
最新文章
- html+spring boot简单的ajax数据传输实现
- 单分子实时测序技术的原理与应用
- LeetCode-17-Letter Combinations of a Phone Number
- python中的time库安装步骤-python中time库的实例使用方法
- [Oracle PL/SQL]当数据表设计成具有父ID的时候,当需要选择所有与父ID同根生的所有节点的时候,使用的SQL语句...
- 维密求变,“自救”还是“挖坟”?
- 校园技术工坊丨云开发校园执行官招募开启!
- dncnn图像去噪_NeuNet2020:BRDNet(开源)使用深度CNN和批量归一化进行图像去噪
- 极大似然估计 —— Maximum Likelihood Estimation
- How is call from CXF delegated to our application code?
- java servlet接口开发_servlet三种实现方式之一实现servlet接口
- LeetCode 337. 打家劫舍 III(记忆化+递归)
- ansible动态inventory里的针对AWS中国的设置
- html资源文件放在哪里,09 Spring Boot开发web项目之静态资源放哪里?
- winamp 珍藏_Winamp发生了什么,您现在可以使用吗?
- 【电脑配置】开发人员必备,黑苹果双系统安装教程
- 魏尔斯特拉斯函数与分形图形的动画演示
- MATLAB Smoothing Spline 拟合
- 计算机共享输入命令是什么意思,笔记本电脑共享WiFi命令怎么使用
- [转]如何查找最新文献
热门文章
- 森锐读卡器连接不上_蓝牙接收器配对不成功的常见问题和解决方案
- 【翻译】Style Transfer by Relaxed Optimal Transport and Self-Similarity
- Ngnix:防止恶意域名解析
- VsCode与Sublime编辑器优缺点对比
- 设计原则 单一职责原则、开放封闭原则、依赖倒置原则、里氏代换原则、迪米特法则
- js 排班插件_js jquery 实现 排班,轮班,日历,日程。使用fullcalendar 插件
- 你给员工吃草,还指望他们有狼性?
- 中国肥胖地图出炉,北方人腰更粗实锤了
- nova系列可以升级鸿蒙吗,鸿蒙官网再度放出新消息,华为nova 6系列以上7款机型可以升级...
- quartus II 过期怎么办?