目录

1.什么是三维重建

2.MVS是什么

3.传统MVS的局限性和为什么基于深度学习的MVS性能好于传统三维重建

4.基础概念

5. patchmatchNet环境配置

6.如何测试自己的数据集(位姿计算)

6.1 colmap导出位姿

6.2 将colmap位姿转换成MVS读取的数据格式


1.什么是三维重建

用相机拍摄真实世界的物体、场景,并通过计算机视觉技术进行处理,从而得到物体的三维模型。英文术语:3D Reconstruction。
        涉及的主要技术有:多视图立体几何、深度图估计、点云处理、网格重建和优化、纹理贴图、马尔科夫随机场、图割等。
        是增强现实(AR)、混合现实(MR)、机器人导航、自动驾驶等领域的核心技术之一。

2.MVS是什么

用RGB-D信息重建3D几何的模型,输入的话是一系列的RGB-D照片,这些照片会有一些重合部分,我们计算这些照片的位姿信息(每个拍摄的相机角度的位置),我们就知道了每帧间的位置关系,然后对它进行一个3D模型的重建,最后将材质信息给它贴上去(纹理贴图,将RGB-D信息贴到几何模型上)。

这里的位姿信息获得是通过SLAM或者SFM来做的,我们就可以得到它的深度图进行点云融合等操作。

3.传统MVS的局限性和为什么基于深度学习的MVS性能好于传统三维重建

MVS重建我们是基于RGB-D信息做的,也就是说我们恢复3D信息是通过立体匹配等方法进行深度恢复,如果RGB信息出现大面积的单色情况(如下图)没有纹理信息的或者是透明的重复纹理的,那么我们很难进行特征点匹配,也就没有办法通过立体匹配进行深度恢复了,最终导致失败。

在深度学习中,我们通过大量的数据学习一些信息规律和信息。

但其也有一定的缺点,比如依赖显存和内存,依赖大数据,难以重建高分辨率的模型。

4.基础概念

①深度图(depth)/视差图(disparity)

a.深度图:场景中每个点到相机的距离
        b.视差图:同一个场景在两个相机下成像的像素的位置偏差dis
        c.两者关系: ,是三维信息的一种表示方式。

深度图存储的就是相机坐标系下的

②三维点云:

a.三维点云是某个坐标系下的点的数据集。
        b.包含了丰富的信息,包括三维坐标XYZ、颜色RGB等信息。

③三维网格:

由物体的邻接点云构成的多边形组成的,通常由三角形、四边形或者其它的简单凸多边形组成。

④纹理贴图模型:

带有颜色信息的三维网格模型。
        所有的颜色信息存储在一张纹理图上,显示时根据每个网格的纹理坐标和对应的纹理图进行渲染得到高分辨率的彩色模型。

⑤相机模型:

5. patchmatchNet环境配置

利用Anaconda配置虚拟环境,python版本为3.8。如果有GPU的话cuda推荐版本为11.3,我是3080显卡,安装的cuda版本为11.3,pytorch版本为1.11.0,可顺利跑通!

下载patchmatchNet源码:

PatchNet Git地址https://github.com/FangjinhuaWang/PatchmatchNet

里面有个requirements.txt

一键安装:pip install -r requirements.txt

到这里我们就安装成功了,测试一下:

先0下载数据集:

下载DTU数据集 dtu.zip,在项目文件夹新建data文件夹,解压到data文件夹中。

在代码路径下打开终端,激活conda环境,运行eval.sh,如果没有gpu,运行eval_cpu.sh。

运行结果保存在当前目录下./outputs下。

如果显卡性能不好或者CPU跑性能过慢的话,我们可以改变默认的分辨率大小,在eval.py中,main函数中,img_wh = (800,600),可以改为原来的一半。同时也要改dataset/dtu_yao_eval.py文件,MvsDataset类中更改图像分辨率。

最终重建的结果如下,效果还是不错滴!

6.如何测试自己的数据集(位姿计算)

6.1 colmap导出位姿

比如我们用手机拍摄了一组照片,要对其进行三维重建,应该怎么做呢?

我们上面说到,输入到patchmatchNet网络中的参数是一组照片以及它们的深度信息(位姿+深度范围或者稀疏点云),因此我们主要做的就是数据格式的转换。

第一步就是位姿的计算,无论是sfm或者SLAM除了输出位姿(R,t)以外都会有稀疏点的输出,并且告诉哪些稀疏点会被哪些相机和关键帧看到,我们就是用这些信息完成重建。

一、数据:

数据要求:图的质量要好不能模糊遮挡、帧之间要有大量的重合区域。(弱纹理,高反光效果不好)

二、位姿计算:使用colmap计算位姿,也可以使用别的比如OpenMVG,Slam这些需要自己写转换脚本参考colmap_input.py。colmap git链接https://github.com/colmap/colmap/releases        在windows下的使用,下载这两个其中一个,

双击:

新建一个工程:

Database是新建的数据库名称,Images是包含图片的文件夹。

可以看到桌面已经有这个工程了。

下一步就是特征提取,

点击提取

特征匹配完成!

重建,点击开始重建。

红色的就是每帧相机的位置,黑色的就是稀疏的地图点。

现在我们就得到了哪些相机可以观测到哪些点、相机的位姿信息、相机的内参等。

我们就可以用地图点计算深度范围计算初始的深度图都是可以的,接下来我们导出信息。FIle/Import model as text:

camera.txt里面是相机的参数:对应相机ID、相机属性、图像大小、相机内参

images.txt:图像ID、平移四元数、旋转信息、哪个相机照的这个图像、图像的名称

POINTS2D[] as (X, Y, POINT3D_ID):投影坐标

points3D.txt:3D点的ID、3D点坐标、3D点的RGB信息、错误信息、可以被哪张图片看到,该点在该张图片的索引是多少。

6.2 将colmap位姿转换成MVS读取的数据格式

转换成MVS格式直接由DataLoader调用即可:

我们看怎么实现:colmap_input.py 我在源码中进行了标注

#!/usr/bin/env pythonfrom __future__ import print_functionimport collections
import struct
import numpy as np
import multiprocessing as mp
import os
import argparse
import shutil
import cv2#============================ read_model.py ============================#
CameraModel = collections.namedtuple("CameraModel", ["model_id", "model_name", "num_params"])
Camera = collections.namedtuple("Camera", ["id", "model", "width", "height", "params"])
BaseImage = collections.namedtuple("Image", ["id", "qvec", "tvec", "camera_id", "name", "xys", "point3D_ids"])
Point3D = collections.namedtuple("Point3D", ["id", "xyz", "rgb", "error", "image_ids", "point2D_idxs"])class Image(BaseImage):def qvec2rotmat(self):return qvec2rotmat(self.qvec)CAMERA_MODELS = {CameraModel(model_id=0, model_name="SIMPLE_PINHOLE", num_params=3),CameraModel(model_id=1, model_name="PINHOLE", num_params=4),CameraModel(model_id=2, model_name="SIMPLE_RADIAL", num_params=4),CameraModel(model_id=3, model_name="RADIAL", num_params=5),CameraModel(model_id=4, model_name="OPENCV", num_params=8),CameraModel(model_id=5, model_name="OPENCV_FISHEYE", num_params=8),CameraModel(model_id=6, model_name="FULL_OPENCV", num_params=12),CameraModel(model_id=7, model_name="FOV", num_params=5),CameraModel(model_id=8, model_name="SIMPLE_RADIAL_FISHEYE", num_params=4),CameraModel(model_id=9, model_name="RADIAL_FISHEYE", num_params=5),CameraModel(model_id=10, model_name="THIN_PRISM_FISHEYE", num_params=12)
}
CAMERA_MODEL_IDS = dict([(camera_model.model_id, camera_model) \for camera_model in CAMERA_MODELS])def read_next_bytes(fid, num_bytes, format_char_sequence, endian_character="<"):"""Read and unpack the next bytes from a binary file.:param fid::param num_bytes: Sum of combination of {2, 4, 8}, e.g. 2, 6, 16, 30, etc.:param format_char_sequence: List of {c, e, f, d, h, H, i, I, l, L, q, Q}.:param endian_character: Any of {@, =, <, >, !}:return: Tuple of read and unpacked values."""data = fid.read(num_bytes)return struct.unpack(endian_character + format_char_sequence, data)def read_cameras_text(path):"""see: src/base/reconstruction.ccvoid Reconstruction::WriteCamerasText(const std::string& path)void Reconstruction::ReadCamerasText(const std::string& path)"""cameras = {}with open(path, "r") as fid:while True:line = fid.readline()if not line:breakline = line.strip()if len(line) > 0 and line[0] != "#":elems = line.split()camera_id = int(elems[0])# camera 类型model = elems[1]width = int(elems[2])height = int(elems[3])# 相机的参数params = np.array(tuple(map(float, elems[4:])))cameras[camera_id] = Camera(id=camera_id, model=model,width=width, height=height,params=params)return camerasdef read_cameras_binary(path_to_model_file):"""see: src/base/reconstruction.ccvoid Reconstruction::WriteCamerasBinary(const std::string& path)void Reconstruction::ReadCamerasBinary(const std::string& path)"""cameras = {}with open(path_to_model_file, "rb") as fid:num_cameras = read_next_bytes(fid, 8, "Q")[0]print("num of cameras")print(num_cameras)for camera_line_index in range(num_cameras):camera_properties = read_next_bytes(fid, num_bytes=24, format_char_sequence="iiQQ")camera_id = camera_properties[0]print("camera id")print(camera_id)model_id = camera_properties[1]# print("model id")# print(model_id)model_name = CAMERA_MODEL_IDS[camera_properties[1]].model_namewidth = camera_properties[2]height = camera_properties[3]num_params = CAMERA_MODEL_IDS[model_id].num_paramsparams = read_next_bytes(fid, num_bytes=8*num_params,format_char_sequence="d"*num_params)cameras[camera_id] = Camera(id=camera_id,model=model_name,width=width,height=height,params=np.array(params))assert len(cameras) == num_camerasreturn camerasdef read_images_text(path):"""see: src/base/reconstruction.ccvoid Reconstruction::ReadImagesText(const std::string& path)void Reconstruction::WriteImagesText(const std::string& path)"""images = {}with open(path, "r") as fid:while True:# 一行一行读line = fid.readline()if not line:breakline = line.strip()# 前面几行有带#的注释if len(line) > 0 and line[0] != "#":elems = line.split()image_id = int(elems[0])# 四元数(旋转矩阵转换的四元数)qvec = np.array(tuple(map(float, elems[1:5])))# 内参ttvec = np.array(tuple(map(float, elems[5:8])))# camera IDcamera_id = int(elems[8])# 图片名称image_name = elems[9]elems = fid.readline().split()# 特征点在图像中的2D坐标xys = np.column_stack([tuple(map(float, elems[0::3])),tuple(map(float, elems[1::3]))])point3D_ids = np.array(tuple(map(int, elems[2::3])))images[image_id] = Image(id=image_id, qvec=qvec, tvec=tvec,camera_id=camera_id, name=image_name,xys=xys, point3D_ids=point3D_ids)return imagesdef read_images_binary(path_to_model_file):"""see: src/base/reconstruction.ccvoid Reconstruction::ReadImagesBinary(const std::string& path)void Reconstruction::WriteImagesBinary(const std::string& path)"""images = {}with open(path_to_model_file, "rb") as fid:num_reg_images = read_next_bytes(fid, 8, "Q")[0]# print("img num")# print(num_reg_images)for image_index in range(num_reg_images):binary_image_properties = read_next_bytes(fid, num_bytes=64, format_char_sequence="idddddddi")image_id = binary_image_properties[0]# print("image_id")# print(image_id)qvec = np.array(binary_image_properties[1:5])tvec = np.array(binary_image_properties[5:8])camera_id = binary_image_properties[8]# print("image_id_camera")# print(camera_id)image_name = ""current_char = read_next_bytes(fid, 1, "c")[0]while current_char != b"\x00":   # look for the ASCII 0 entryimage_name += current_char.decode("utf-8")current_char = read_next_bytes(fid, 1, "c")[0]num_points2D = read_next_bytes(fid, num_bytes=8,format_char_sequence="Q")[0]x_y_id_s = read_next_bytes(fid, num_bytes=24*num_points2D,format_char_sequence="ddq"*num_points2D)xys = np.column_stack([tuple(map(float, x_y_id_s[0::3])),tuple(map(float, x_y_id_s[1::3]))])point3D_ids = np.array(tuple(map(int, x_y_id_s[2::3])))# print("point_3d")# print(point3D_ids)images[image_id] = Image(id=image_id, qvec=qvec, tvec=tvec,camera_id=camera_id, name=image_name,xys=xys, point3D_ids=point3D_ids)return imagesdef read_points3D_text(path):"""see: src/base/reconstruction.ccvoid Reconstruction::ReadPoints3DText(const std::string& path)void Reconstruction::WritePoints3DText(const std::string& path)"""points3D = {}with open(path, "r") as fid:while True:line = fid.readline()if not line:breakline = line.strip()if len(line) > 0 and line[0] != "#":elems = line.split()point3D_id = int(elems[0])xyz = np.array(tuple(map(float, elems[1:4])))rgb = np.array(tuple(map(int, elems[4:7])))error = float(elems[7])image_ids = np.array(tuple(map(int, elems[8::2])))point2D_idxs = np.array(tuple(map(int, elems[9::2])))points3D[point3D_id] = Point3D(id=point3D_id, xyz=xyz, rgb=rgb,error=error, image_ids=image_ids,point2D_idxs=point2D_idxs)return points3Ddef read_points3d_binary(path_to_model_file):"""see: src/base/reconstruction.ccvoid Reconstruction::ReadPoints3DBinary(const std::string& path)void Reconstruction::WritePoints3DBinary(const std::string& path)"""points3D = {}with open(path_to_model_file, "rb") as fid:num_points = read_next_bytes(fid, 8, "Q")[0]# print("num points")# print(num_points)for point_line_index in range(num_points):binary_point_line_properties = read_next_bytes(fid, num_bytes=43, format_char_sequence="QdddBBBd")point3D_id = binary_point_line_properties[0]xyz = np.array(binary_point_line_properties[1:4])rgb = np.array(binary_point_line_properties[4:7])error = np.array(binary_point_line_properties[7])track_length = read_next_bytes(fid, num_bytes=8, format_char_sequence="Q")[0]track_elems = read_next_bytes(fid, num_bytes=8*track_length,format_char_sequence="ii"*track_length)image_ids = np.array(tuple(map(int, track_elems[0::2])))point2D_idxs = np.array(tuple(map(int, track_elems[1::2])))points3D[point3D_id] = Point3D(id=point3D_id, xyz=xyz, rgb=rgb,error=error, image_ids=image_ids,point2D_idxs=point2D_idxs)return points3Ddef read_model(path, ext):if ext == ".txt":# 读取相机参数、图像、3D点cameras = read_cameras_text(os.path.join(path, "cameras" + ext))images = read_images_text(os.path.join(path, "images" + ext))points3D = read_points3D_text(os.path.join(path, "points3D") + ext)else:cameras = read_cameras_binary(os.path.join(path, "cameras" + ext))images = read_images_binary(os.path.join(path, "images" + ext))points3D = read_points3d_binary(os.path.join(path, "points3D") + ext)return cameras, images, points3Ddef qvec2rotmat(qvec):return np.array([[1 - 2 * qvec[2]**2 - 2 * qvec[3]**2,2 * qvec[1] * qvec[2] - 2 * qvec[0] * qvec[3],2 * qvec[3] * qvec[1] + 2 * qvec[0] * qvec[2]],[2 * qvec[1] * qvec[2] + 2 * qvec[0] * qvec[3],1 - 2 * qvec[1]**2 - 2 * qvec[3]**2,2 * qvec[2] * qvec[3] - 2 * qvec[0] * qvec[1]],[2 * qvec[3] * qvec[1] - 2 * qvec[0] * qvec[2],2 * qvec[2] * qvec[3] + 2 * qvec[0] * qvec[1],1 - 2 * qvec[1]**2 - 2 * qvec[2]**2]])def rotmat2qvec(R):Rxx, Ryx, Rzx, Rxy, Ryy, Rzy, Rxz, Ryz, Rzz = R.flatK = np.array([[Rxx - Ryy - Rzz, 0, 0, 0],[Ryx + Rxy, Ryy - Rxx - Rzz, 0, 0],[Rzx + Rxz, Rzy + Ryz, Rzz - Rxx - Ryy, 0],[Ryz - Rzy, Rzx - Rxz, Rxy - Ryx, Rxx + Ryy + Rzz]]) / 3.0eigvals, eigvecs = np.linalg.eigh(K)qvec = eigvecs[[3, 0, 1, 2], np.argmax(eigvals)]if qvec[0] < 0:qvec *= -1return qvecif __name__ == '__main__':parser = argparse.ArgumentParser(description='Convert colmap results into input for PatchmatchNet')parser.add_argument('--folder', default='./data',type=str, help='Project dir.')parser.add_argument('--theta0', type=float, default=5)parser.add_argument('--sigma1', type=float, default=1)parser.add_argument('--sigma2', type=float, default=10)# 测试程序是否可用,如果置此位为true则不保存结果parser.add_argument('--test', action='store_true', default=False, help='If set, do not write to file.')# 转换格式,将图片转换成jpg格式parser.add_argument('--convert_format', action='store_true', default=False, help='If set, convert image to jpg format.')args = parser.parse_args()# 图片路径,即这个路径下要有图像image_dir = os.path.join(args.folder, 'images')# 位姿路径model_dir = os.path.join(args.folder, 'sparse')# 这两个文件夹是我们要保存的结果cam_dir = os.path.join(args.folder, 'cams')renamed_dir = os.path.join(args.folder, 'images')# 相机参数、图像、3D点读入到变量中cameras, images, points3d = read_model(model_dir, '.txt')#cameras, images, points3d = read_model(model_dir, '.bin')num_images = len(list(images.items()))param_type = {'SIMPLE_PINHOLE': ['f', 'cx', 'cy'],'PINHOLE': ['fx', 'fy', 'cx', 'cy'],'SIMPLE_RADIAL': ['f', 'cx', 'cy', 'k'],'SIMPLE_RADIAL_FISHEYE': ['f', 'cx', 'cy', 'k'],'RADIAL': ['f', 'cx', 'cy', 'k1', 'k2'],'RADIAL_FISHEYE': ['f', 'cx', 'cy', 'k1', 'k2'],'OPENCV': ['fx', 'fy', 'cx', 'cy', 'k1', 'k2', 'p1', 'p2'],'OPENCV_FISHEYE': ['fx', 'fy', 'cx', 'cy', 'k1', 'k2', 'k3', 'k4'],'FULL_OPENCV': ['fx', 'fy', 'cx', 'cy', 'k1', 'k2', 'p1', 'p2', 'k3', 'k4', 'k5', 'k6'],'FOV': ['fx', 'fy', 'cx', 'cy', 'omega'],'THIN_PRISM_FISHEYE': ['fx', 'fy', 'cx', 'cy', 'k1', 'k2', 'p1', 'p2', 'k3', 'k4', 'sx1', 'sy1']}# intrinsicintrinsic = {}for camera_id, cam in cameras.items():params_dict = {key: value for key, value in zip(param_type[cam.model], cam.params)}print(cam.model)if 'f' in param_type[cam.model]:params_dict['fx'] = params_dict['f']params_dict['fy'] = params_dict['f']i = np.array([[params_dict['fx'], 0, params_dict['cx']],[0, params_dict['fy'], params_dict['cy']],[0, 0, 1]])intrinsic[camera_id] = iprint('intrinsic[0]\n', intrinsic, end='\n\n')# extrinsicextrinsic = {}for image_id, image in images.items():e = np.zeros((4, 4))e[:3, :3] = qvec2rotmat(image.qvec)e[:3, 3] = image.tvece[3, 3] = 1extrinsic[image_id] = eprint('extrinsic[1]\n', extrinsic[1], end='\n\n')# depth range and intervaldepth_ranges = {}for i in range(num_images):zs = []for p3d_id in images[i+1].point3D_ids:if p3d_id == -1:continuetransformed = np.matmul(extrinsic[i+1], [points3d[p3d_id].xyz[0], points3d[p3d_id].xyz[1], points3d[p3d_id].xyz[2], 1])zs.append(np.asscalar(transformed[2]))zs_sorted = sorted(zs)# relaxed depth rangedepth_min = zs_sorted[int(len(zs) * .01)]depth_max = zs_sorted[int(len(zs) * .99)]depth_ranges[i+1] = (depth_min, depth_max)print('depth_ranges[1]\n', depth_ranges[1], end='\n\n')# view selectionscore = np.zeros((len(images), len(images)))queue = []for i in range(len(images)):for j in range(i + 1, len(images)):queue.append((i, j))# def calc_score(inputs):#     i, j = inputs#     id_i = images[i+1].point3D_ids#     id_j = images[j+1].point3D_ids#     id_intersect = [it for it in id_i if it in id_j]#     cam_center_i = -np.matmul(extrinsic[i+1][:3, :3].transpose(), extrinsic[i+1][:3, 3:4])[:, 0]#     cam_center_j = -np.matmul(extrinsic[j+1][:3, :3].transpose(), extrinsic[j+1][:3, 3:4])[:, 0]#     score = 0#     for pid in id_intersect:#         if pid == -1:#             continue#         p = points3d[pid].xyz#         theta = (180 / np.pi) * np.arccos(np.dot(cam_center_i - p, cam_center_j - p) / np.linalg.norm(cam_center_i - p) / np.linalg.norm(cam_center_j - p))#         score += np.exp(-(theta - args.theta0) * (theta - args.theta0) / (2 * (args.sigma1 if theta <= args.theta0 else args.sigma2) ** 2))#     return i, j, score# p = mp.Pool(processes=mp.cpu_count())# result = p.map(calc_score, queue)for i, j in queue:id_i = images[i+1].point3D_idsid_j = images[j+1].point3D_idsid_intersect = [it for it in id_i if it in id_j]cam_center_i = -np.matmul(extrinsic[i+1][:3, :3].transpose(), extrinsic[i+1][:3, 3:4])[:, 0]cam_center_j = -np.matmul(extrinsic[j+1][:3, :3].transpose(), extrinsic[j+1][:3, 3:4])[:, 0]s = 0for pid in id_intersect:if pid == -1:continuep = points3d[pid].xyztheta = (180 / np.pi) * np.arccos(np.dot(cam_center_i - p, cam_center_j - p) / np.linalg.norm(cam_center_i - p) / np.linalg.norm(cam_center_j - p))s += np.exp(-(theta - args.theta0) * (theta - args.theta0) / (2 * (args.sigma1 if theta <= args.theta0 else args.sigma2) ** 2))score[i, j] = sscore[j, i] = sview_sel = []for i in range(len(images)):sorted_score = np.argsort(score[i])[::-1]view_sel.append([(k, score[i, k]) for k in sorted_score[:10]])print('view_sel[0]\n', view_sel[0], end='\n\n')# writetry:os.makedirs(cam_dir)except os.error:print(cam_dir + ' already exist.')for i in range(num_images):with open(os.path.join(cam_dir, '%08d_cam.txt' % i), 'w') as f:f.write('extrinsic\n')for j in range(4):for k in range(4):f.write(str(extrinsic[i+1][j, k]) + ' ')f.write('\n')f.write('\nintrinsic\n')for j in range(3):for k in range(3):f.write(str(intrinsic[images[i+1].camera_id][j, k]) + ' ')f.write('\n')f.write('\n%f %f \n' % (depth_ranges[i+1][0], depth_ranges[i+1][1]))with open(os.path.join(args.folder, 'pair.txt'), 'w') as f:f.write('%d\n' % len(images))for i, sorted_score in enumerate(view_sel):f.write('%d\n%d ' % (i, len(sorted_score)))for image_id, s in sorted_score:f.write('%d %f ' % (image_id, s))f.write('\n')for i in range(num_images):if args.convert_format:img = cv2.imread(os.path.join(image_dir, images[i+1].name))cv2.imwrite(os.path.join(renamed_dir, '%08d.jpg' % i), img)else:shutil.copyfile(os.path.join(image_dir, images[i+1].name), os.path.join(renamed_dir, '%08d.jpg' % i))

基于深度学习的三维重建(一):三维重建简介、patchmatchNet环境部署、用colmap如何测试自己的数据集相关推荐

  1. 基于深度学习的病毒检测技术无需沙箱环境,直接将样本文件转换为二维图片,进而应用改造后的卷积神经网络 Inception V4 进行训练和检测...

    话题 3: 基于深度学习的二进制恶意样本检测 分享主题:全球正在经历一场由科技驱动的数字化转型,传统技术已经不能适应病毒数量飞速增长的发展态势.而基于沙箱的检测方案无法满足 APT 攻击的检测需求,也 ...

  2. 【camera】自动泊车-基于深度学习的视觉车位检测项目(课程设计--训练代码、测试代码、部署demo)(2)

    **基于深度学习的点定位回归和角度预测的车位检测 基于深度学习的点定位回归和角度预测 基于深度学习的角点检测和角度回归 ** 项目下载地址:训练代码.测试代码.部署demo 数据集百度网盘下载:数据集 ...

  3. 基于深度学习的人脸识别算法

    基于深度学习的人脸识别算法 简介 Contrastive Loss Triplet Loss Center Loss A-Softmax Loss 参考文献: 简介 我们经常能从电影中看到各种神奇的人 ...

  4. 基于深度学习的个性化新闻推荐.pdf(附下载链接)

    今天给大家带来微软亚洲研究院研究院吴方照先生在2020年5月10日举办的"推荐系统前沿进展"系列学术沙龙活动中所做的分享<基于深度学习的个性化新闻推荐>,在本次分享中, ...

  5. 基于深度学习的烟火检测——yolov5

    基于深度学习的烟火检测--yolov5 今天先写到这里,明天再写 背景介绍 数据集介绍 训练结果 测试效果 今天先写到这里,明天再写 写在最前面:分享记录自己在目标检测的爬坑之路,一起探讨学习 数据集 ...

  6. 三维图形几何变换算法实验_基于深度学习的三维重建算法综述

    点击上方"计算机视觉life",选择"星标" 快速获得最新干货 00 前言 目前,三维重建技术已在游戏.电影.测绘.定位.导航.自动驾驶.VR/AR.工业制造以 ...

  7. 基于深度学习的视觉三维重建研究总结

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 作者:MoonSmile | 来源:知乎 https://zhuanlan.zhihu.com/p/7 ...

  8. 三维重建 几何方法 深度学习_基于深度学习的三维重建算法:MVSNet、RMVSNet、PointMVSNet、Cascade系列...

    欢迎关注微信公众号"3D视觉学习笔记",分享博士期间3D视觉学习收获 MVSNet:香港科技大学的权龙教授团队的MVSNet(2018年ECCV)开启了用深度做多视图三维重建的先河 ...

  9. pytorch 三维点分类_基于深度学习的三维重建——MVSNet系列论文解读

    欢迎关注微信公众号"3D视觉学习笔记",分享博士期间3D视觉学习收获 MVSNet:香港科技大学的权龙教授团队的MVSNet(2018年ECCV)开启了用深度做多视图三维重建的先河 ...

最新文章

  1. 输入和输出移位寄存器的同步串行模式
  2. 一个身份证号码验证接口[2]
  3. spring使用@Async注解异步处理
  4. 来自未来团队伙伴的一封信
  5. 蓝桥杯2016初赛-网友年龄-枚举
  6. tp框架 db::name_玩! 框架:为什么我会爱上它
  7. 最新版飞鸽传书(http://www.freeeim.com)下载
  8. jQuery之ajax错误调试分析
  9. RedHat Enterprise Linux 5下安装firefox
  10. 5.2 各种类型的Attention: 原理、计算流程
  11. matlab车牌匹配时读取,基于matlab+模板匹配的车牌识别(程序+照片+论文)
  12. 苹果x屏幕多少钱_xsmax闪屏,苹果xsmax换屏幕多少钱
  13. [XMAN2018排位赛]AutoKey
  14. 网易有道 ASR 团队斩获 Interspeech 2021 算法竞赛两项冠军
  15. 2016年中南大学校赛镜像赛(校外队伍)
  16. ubuntu中GoldenDict的使用
  17. 新浪短网址生成java_新浪短链接 推荐几个最新的新浪t.cn短链接生成的API接口
  18. 中国的部分家长应该扪心自问一下了
  19. Sorry ,中产 -20160929
  20. 指纹识别综述(1): 导论

热门文章

  1. 一个简单、功能完整的WMS​仓库管理系统
  2. linux 运维部落,系统运维
  3. 树莓派基于分类器的识别环保标志(四)
  4. c语言简单的代码优化
  5. AI教学实训整体解决方案
  6. 一个三十岁中国男人的婚姻思考!(转载)
  7. 计算机桌面变小,电脑桌面变小了怎么办
  8. centos桌面图标变小_如何使Windows桌面图标变大或变小
  9. Fragment 的 onResume()
  10. jQuery层叠式视频列表播放