无人驾驶汽车系统入门(六)——基于传统计算机视觉的车道线检测(1)
无人驾驶汽车系统入门(六)——基于传统计算机视觉的车道线检测(1)
感知,作为无人驾驶汽车系统中的“眼睛”,是目前无人驾驶汽车量产和商用化的最大障碍之一(技术角度),
目前,高等级的无人驾驶汽车系统仍然非常依赖于激光雷达的测量,通过激光雷达构造周围环境的3D地图,从而为无人驾驶系统的决策和规划提供准确的环境信息和自身相对的位置信息。然而,激光雷达雷达在成本,解析度的方面都不理想,所以基于视觉的无人驾驶相关技术(主要在感知方面)近几年发展迅猛,本节我们从传统的 计算机视觉(Computer Version, CV) 出发,来了解并且实践基于传统计算机视觉算法的车道线检测技术。
原创不易,转载请注明出处:http://blog.csdn.net/adamshan/article/details/78712120
视觉感知VS激光雷达
激光雷达能够为无人驾驶汽车提供障碍物检测,高精度地图和定位等多方面的支持,在目前各个研究团队广泛使用。下图是激光雷达的简易构造:
激光雷达以一定的角速度旋转,发射出波长在600nm到1000nm之间的激光射线,同时收集来自反射点的信息,激光雷达每旋转一周,收集到的反射点的坐标构成的一个集合,我们称之为 点云(Point Cloud)。下图就是一张点云图:
激光雷达具有可靠性高,障碍物细节分辨以及精准测距等优点,同时不受光线条件的影响。但是,激光雷达的价格居高不下,例如目前在各个研究团队中广泛使用的Velodyne HDL-64E 激光雷达的售价就在10万美元左右,这使得成本成为搭载激光雷达的无人驾驶汽车的商用化的障碍。
作为比较,基于计算机视觉(Computer Version, CV)的感知成本相对低,结合视觉,IMU+GPS以及毫米波雷达的方案是目前已经商用驾驶辅助系统中采用的主流方案(例如特斯拉的Autopilot),计算机视觉是指 通过图像来感知和理解我们的世界 的科学。对于无人驾驶而言,计算机视觉可以帮助确定车道线的位置,识别车辆,行人以及其他事物,以确保无人车的形式安全,基于深度学习的技术,我们甚至可以实现端到端的自动驾驶(输入图像,输出操作)。
此外,人类驾驶员在做感知的时候只需要一双眼睛(偶尔可能需要用耳朵去听声音),而不需要精确知道距离障碍物有多少厘米,障碍物长宽高分别是多少厘米等,所以我们可以相信——无人驾驶的最终形态或许就像人类驾驶一样仅仅需要视觉感知。
本节我们将使用传统的计算机视觉技术进行车道线的检测,同时基于检测出来的车道线计算车道线的曲率和车辆偏离车道线中心线的距离。在下一届中,我们将使用TensorFlow实现基于深度学习的车道线检测。
相机标定
相机标定(Camera Calibration) 通常是做计算机视觉的第一步,首先,为什么要做相机标定呢?因为我们通过相机镜头记录下的图像往往存在一定程度的失真,这种失真往往表现为 图像畸变(Image Distortion) 。畸变分为两类:
- 径向畸变(radial distortion):由于透镜的特性,光线容易在相机镜头的边缘出现较小或者较大幅度的弯曲,称之为径向畸变。这种畸变在普通廉价的镜头中表现更加明显,径向畸变主要包括桶形畸变和枕形畸变两种。以下分别是枕形和桶形畸变示意图:
- 切向畸变(tangential distortion):是由于透镜本身与相机传感器平面(成像平面)或图像平面不平行而产生的,这种情况多是由于透镜被粘贴到镜头模组上的安装偏差导致。
畸变(distortion) 是对直线投影(rectilinear projection)的一种偏移。简单来说直线投影是场景内的一条直线投影到图片上也保持为一条直线。那畸变简单来说就是一条直线投影到图片上不能保持为一条直线了,这是一种光学畸变(optical aberration)。可能由于摄像机镜头的原因,这里不讨论,有兴趣的可以查阅光学畸变的相关的资料。
即便一般能够由五个参数来采集,我们称之为 畸变参数(distortion parameters) ,我们使用 D=(k1,k2,p1,p2,k3) D = (k_1, k_2, p_1, p_2, k_3) 来表示,对于径向畸变,可以使用如下公式进行矫正:
x_{corr} = x_{dis}(1 + k_1r^2+k_2r^4+k_3r^6)
y_{corr} = y_{dis}(1 + k_1r^2+k_2r^4+k_3r^6)
对于切向畸变,可以用如下公式来矫正:
x_{corr} = x_{dis} + [2p_1x_{dis}y_{dis} + p_2(r^2 + 2x_{dis}^2)]
y_{corr} = y_{dis} + [p_1(r^2 + 2y_{dis}^2) + 2p_2x_{dis}y_{dis}]
以上公式中:
- xdis x_{dis} 和 ydis y_{dis} 表示有畸变的坐标;
- xcorr x_{corr} 和 ycorr y_{corr} 表示修复后的坐标;
- k1 k_1 , k2 k_2 , k3 k_3 表示径向畸变参数;
- p1 p_1 , p2 p_2 表示切向畸变参数;
- r r 表示矫正以后的坐标到图片中心的距离
直接看公式难以理解,我们看如下的图像:
这就是为什么我们标定相机通常使用棋盘图像了,下面我们使用OpenCV来实现一下相机标定。
相机,棋盘图
首先从各个角度对这个棋盘拍照,得到一系列如下的照片:
一般来说,使用相机在各个角度拍摄20张左右的棋盘图即可完成后面的标定工作。
使用OpenCV找出棋盘的对角点
首先读取图像并转为灰度图:
from __future__ import print_functionimport numpy as np
import cv2
import matplotlib.pyplot as plt
import pickle
%matplotlib inlinecal = plt.imread('calibration1.jpg')fig1 = plt.figure(1, figsize=(16, 9))
cal_gray = cv2.cvtColor(cal, cv2.COLOR_RGB2GRAY)
plt.subplot(2,2,1)
plt.imshow(cal)
plt.subplot(2,2,2)
plt.imshow(cal_gray, cmap='gray')
使用OpenCV的cv2.findChessboardCorners()
函数找出棋盘图中的对角(即图片中黑白相对的点的坐标),同时使用cv2.drawChessboardCorners()
将之画出来:
ret, corners = cv2.findChessboardCorners(cal_gray, (9, 6),None)
if ret == True:cal = cv2.drawChessboardCorners(cal, (9, 6), corners, ret)
plt.imshow(cal)
在上图中我们查找出了这个棋盘图内 9×69 \times 6的黑白对角在图片中的像素位置,接着我们构造这些对角点在在现实世界中的相对位置,我们将这些位置简化成整数值,比如说第二行的第1个点就表示为 [0,1,0] [0,1,0] , 即第0列第1行。
objp = np.zeros((6*9, 3), np.float32)
objp[:, :2] = np.mgrid[0:9, 0:6].T.reshape(-1, 2)img_points = []
obj_points = []img_points.append(corners)
obj_points.append(objp)
对所有的的标定用的棋盘图像都进行上述操作求得对角的像素位置和实际相对位置(对于一个棋盘来说,实际相对位置其实恒定的),并将这些都添加到 img_points
和 obj_points
两个列表中。最后我们使用OpenCV中的 cv2.calibrateCamera()
即可求得这个相机的畸变系数,在后面的所有图像的矫正都可以使用这一组系数来完成。
image_size = (cal.shape[1], cal.shape[0])
ret, mtx, dist, rvecs, tvecs = cv2.calibrateCamera(obj_points, img_points,image_size, None, None)
矫正一张图像我们使用 cv2.undistort()
方法来实现:
# Read in a test image
img = cv2.imread('calibration3.jpg')
undist = cv2.undistort(img, mtx, dist, None, mtx)
plt.subplot(2,2,1)
plt.imshow(img)
plt.subplot(2,2,2)
plt.imshow(undist)
矫正的结果:
我们发现经过标定以后,相机拍出来的图像更接近于真实情况,因失真造成的”扭曲的直线”也被纠正过来。
确定ROI
ROI(Region of interest) 即我们处理一个视觉任务时“感兴趣的区域”,当然不同的任务ROI是不一样的,对于车道线检测而言(如下图),ROI就是车辆的前方的车道线区域:
我们可以通过透视变换来获得一个相对更加直观的视角(比如说在天空俯视的视角),然后在新的视角来圈出ROI。 透视变换(Perspective Transformation) 是将图片投影到一个新的 视平面(Viewing Plane) ,也称作 投影映射(Projective Mapping) 。在OpenCV中,通过使用函数 cv2.getPerspectiveTransform()
和 cv2.warpPerspective()
即可完成对一张图片的透视变换。
透视变换基于给定的映射关系,通过对原图像进行扭曲,从而得到一个近似另一个视角的图像
首先我们读取并且矫正图像,矫正后的结果:
对直道进行透视变换:
def perspective_transform(img, M):img_size = (img.shape[1], img.shape[0])warped = cv2.warpPerspective(img, M, img_size, flags=cv2.INTER_LINEAR)return warped# left_top to left_bottom,
corners = [(603, 445), (677, 445), (1105, 720), (205, 720)]wrap_offset = 150
src_corners = [(603, 445), (677, 445), (1105, 720), (205, 720)]
dst_corners = [(205 + wrap_offset, 0), (1105 - wrap_offset, 0), (1105 - wrap_offset, 720), (205 + wrap_offset, 720)]
M = cv2.getPerspectiveTransform(np.float32(src_corners), np.float32(dst_corners))
wrap_img= perspective_transform(straight_lines1, M)subplot(1, 2, [straight_lines1, wrap_img])
结果如图:
我们解读一下代码:cv2.getPerspectiveTransform()
需要两个参数 src
和 dst
,他们分别为原图像中能够表示一个矩形的四个点的坐标以及扭曲以后图像的边缘四角在当前图像中的坐标,这两个矩形的坐标不同的相机的数值也不同,不如说实例中相机的分辨率为 1280×720 1280 \times 720 , 那么 [(603, 445), (677, 445), (1105, 720), (205, 720)]
在图像中构成一个梯形,这个梯形在俯视图(或者说鸟瞰图)中是一个长方形,然后我们以这个梯形的高作为目标图像的高,前后各减去一个偏移(在实例中这个偏移是150个像素),就是我们的目标图像这个目标图像,也即是我们的ROI。
下面我们就可以在这个鸟瞰图上来做道路线检测了,由于篇幅的原因,道路线检测算法以及完整代码都将在下一篇博客中给出,希望大家多关注收藏!
无人驾驶汽车系统入门(六)——基于传统计算机视觉的车道线检测(1)相关推荐
- 无人驾驶汽车系统入门(七)——基于传统计算机视觉的车道线检测(2)
无人驾驶汽车系统入门(七)--基于传统计算机视觉的车道线检测(2) 原创不易,转载请注明来源:http://blog.csdn.net/adamshan/article/details/7873330 ...
- 无人驾驶汽车系统入门:基于深度学习的实时激光雷达点云目标检测及ROS实现...
参加 2018 AI开发者大会,请点击 ↑↑↑ 作者:申泽邦(Adam Shan),兰州大学在读硕士研究生,主要研究方向无人驾驶,深度学习:兰大未来计算研究院无人车团队负责人,自动驾驶全栈工程师. 近 ...
- 无人驾驶汽车系统入门:基于VoxelNet的激光雷达点云车辆检测及ROS实现
作者 | 申泽邦(Adam Shan) 兰州大学在读硕士研究生,主要研究方向无人驾驶,深度学习:兰大未来计算研究院无人车团队负责人,自动驾驶全栈工程师. 之前我们提到使用SqueezeSeg进行了三维 ...
- “无人驾驶汽车系统入门”博客专栏
"无人驾驶汽车系统入门"专栏链接地址: https://blog.csdn.net/column/details/28410.html?&page=1 前言:随着深度学习近 ...
- 无人驾驶汽车系统入门
无人驾驶汽车系统入门(一)--卡尔曼滤波与目标追踪 链接:https://blog.csdn.net/adamshan/article/details/78248421 无人驾驶汽车系统入门(二)-- ...
- 无人驾驶汽车系统入门(二十六)——基于深度学习的实时激光雷达点云目标检测及ROS实现
无人驾驶汽车系统入门(二十六)--基于深度学习的实时激光雷达点云目标检测及ROS实现 在前两篇文章中,我们使用PCL实现了在点云中对地面的过滤和点云的分割聚类,通常来说,在这两步以后我们将对分割出来的 ...
- 无人驾驶汽车系统入门(十二)——卷积神经网络入门,基于深度学习的车辆实时检测
无人驾驶汽车系统入门(十二)--卷积神经网络入门,基于深度学习的车辆实时检测 上篇文章我们讲到能否尽可能利用上图像的二维特征来设计神经网络,以此来进一步提高识别的精度.在这篇博客中,我们学习一类专门用 ...
- 无人驾驶汽车系统入门(二十八)——基于VoxelNet的激光雷达点云车辆检测及ROS实现
无人驾驶汽车系统入门(二十八)--基于VoxelNet的激光雷达点云车辆检测及ROS实现 前文我们提到使用SqueezeSeg进行了三维点云的分割,由于采用的是SqueezeNet作为特征提取网络,该 ...
- 无人驾驶汽车系统入门(十)——基于运动学模型的模型预测控制
无人驾驶汽车系统入门(十)--基于运动学模型的模型预测控制 在前面的第五篇博客中,我们介绍了两种常见的车辆模型--运动学自行车模型和动力学自行车模型,本节我们基于运动学车辆模型引入一种新的控制理论-- ...
最新文章
- 【转】web 前端研发工程师编程能力飞升之路
- Mac电脑如何显示隐藏文件
- Node.js 执行webpack命令出现的错误
- mysql 操作类 C .net_.NET MYSQL数据库操作基类( C#源码)
- Redis分布式锁—SETNX+Lua脚本实现篇
- 为什么一般hashtable的桶数会取一个素数
- maven 绑定html压缩,Maven使用yuicompressor-maven-plugin打包压缩css、js文件
- python控制手机模拟器_通过adb连接手机或者模拟器进行python开发
- 网络安全攻防实验室通关教程-脚本关
- matlab中一个显示根号的技巧
- Google Web Accelerator
- python 异常 exception_关于Python中异常(Exception)的汇总
- 快速掌握Photoshop简单用法
- 诚龙网刻报错_诚龙网刻|诚龙网维全自动PXE网刻工具 V 11.0 官方版-完美软件下载...
- 3d效果图设计师接私单的渠道介绍和避坑指南
- 从狂热的苹果粉丝们来看中国式“杯具”
- python基础 class6(基本统计值计算、文本词频统计)
- Django详细教程(图文)
- 由Finalizer和SocksSocketImpl引起的Fullgc问题盘点
- 全网最详细的Neo4j安装教程
热门文章
- ejs渲染html无效,express设置ejs渲染.html文件
- 关于联想Win10每次开机默认浏览器重置为Edge
- 从零开发区块链应用(十二)--以太坊余额查询
- js中判断是否对象的方法
- 谷歌的android官方刷机,谷歌 Android 7.0 ROM刷机包 for Nexus 6P 官方固件最新版
- 离子注入的matlab程序,等离子体离子注入PIC仿真的MATLAB实现
- “阿拉丁”、“凤巢”以及热门的“移动搜索”成为重点,今年,将推动市场占有率第一的百度继续变革
- 上海理工大学第二届“联想杯”全国程序设计邀请赛
- 2021年西交大计基题目解析(第13周)
- 优秀的网络安全工程师应该有哪些能力?