苹果3D物体捕捉Object Capture功能实现教程
测试电脑:2021 macbook air m1
测试日期:2021-08-15
1. 将MacOS升级为 macos Monterey beta 12.0及以上
2. 下载安装 XCode 13.0 及以上
3. 下载安装 物体捕捉app 到手机,下载地址
Apple Developer Documentation
3.1 下载完成后使用XCode 13.0 或及以上 打开TakingPicturesFor3DObjectCapture文件里的CaptureSample.xcodeproj 文件
3.2 编译运行安装app到你的iphone手机
4. 使用app对实物进行拍照捕捉
4.1 拍照模式可分为 手动或自动,建议手动。
4.2 拍摄教程可参考苹果官网视频,拍摄质量会严重影响输出模型,建议参考官网拍摄教程。
Apple Developer Documentation
视频教程跳转到19:17 Create 3D models with Object Capture - WWDC21 - Videos - Apple Developer
4.3 拍摄结束后,所有文件(image,depth,gravity)都会集中保存在一个文件夹里,这个文件夹位于iPhone手机里的 文件-我的iphone-CaptureSample里面,将这个文件夹隔空传送到你的mac桌面上,并为它重命名。(如果你没有在手机里找到CaptureSample文件夹,请看4.4,否则移步到步骤5)
4.4 更新于2022-03-13 根据部分论坛网友反映在 iphone-文件-我的iphone 找不到 “Capture Sample”文件夹,造成此问题的原因本人还在分析排查中,以下是解决办法:
4.4.1 连接你的iphone到mac,打开步骤3.1中CaptureSample.xcodeproj 工程文件,选择 “Window”- “Devices and Simulators"
4.4.2 选择已经安装到你手机的CaptureSample应用,点击下方红色框选的按钮,然后选择“Download Container",等待下载完成,并保存到你想要的位置。
4.4.3 下载完成后,control+单击或触控板双指点击下载好的文件,选择“显示包内容”
4.4.4 选择 AppData - Documents - Captures 在这里就可以找到你捕获到的文件了
5. 下载Photogrammetry Command-Line App 到你的mac上,下载地址
Apple Developer Documentation
5.1 使用XCode 13.0 beta 打开CreatingAPhotogrammetryCommandLineApp文件下的HelloPhotogrammetry.xcodeproj
5.2 选择 Product >Scheme>Edit Scheme, 依次选择左边菜单栏的 Run,和中间菜单的Arguments
5.3 在 Arguments Passed On Launch里依次添加以下3行内容:
1. /Users/这里填你的用户名/Desktop/这里填写步骤4.3里重命名的文件名
2. /Users/这里填你的用户名/Desktop/这里填你想要输出的模型名字.usdz
3. -d full
注意:这里第一行指的是你拍了一堆照片文件夹的路径,第二行是你想要最终输出模型的路径和名字,第三行指的是输出模型的细节,可选reduced, medium, full, raw关于可选细节程度内容请观看步骤4.2里的视频教程
6. 关闭步骤5.3的对话框后,编译运行到本地mac
6.1 图片越多,此阶段耗时越长
6.2 编译运行开始后,console里会显示相关进度,像RealityFoundation.PhotogrammetrySession.Request.Detail.full, geometry: nil) = 0.062232641168当这串数字变为1.0, 并且显示[HelloPhotogrammetry]Processing is Complete! 时,模型会生成并保存在指定路径。
6.3 将生成的模型传送到手机后,打开模型文件即可体验AR
注意:如果运行完成后,且进度为1,但指定路径下没有生成模型文件,很有可能是拍摄照片数量不够,或质量太差,具体原因看console里的报错,具体拍摄技巧看步骤4
苹果3D物体捕捉Object Capture功能实现教程相关推荐
- 如何通过苹果的物体捕捉(Object Capture api)将 iPhone或iPad中的照片转换为3D模型
物体捕捉(Object Capture api)可以将 iPhone或iPad中的照片转换为3D模型 在使用物体捕捉(Object Capture)你的电脑必须具备以下条件: 下载开发工具XCode ...
- Android Q手势功能升级-似苹果3D Touch
2019独角兽企业重金招聘Python工程师标准>>> 外媒消息称,根据Android Q的相关文档所示,安卓Q会升级和苹果3D Touch类似的手势功能.谷歌在安卓8.0上就添加了 ...
- ViveInputUtility-手柄拾取3D物体(7)
本章主要介绍通过VIU,实现手柄拾取3d物体以及拾取事件触发. 1.前期准备 新建场景06-3DGrab,删除默认相机,新建原点空节点Player,将需要的模块拖入Player节点内,本章还是沿用第二 ...
- ViveInputUtility-手柄射线与3D物体交互(5)
本章主要介绍通过VIU,实现利用手柄射线射线进入.点击.离开物体,以及射线拾取物体两大部分的内容. 1.前期准备 这里以第二章中的瞬移场景为基础进行讲解.链接如下: 我们将阶梯命名为Stairs,墙命 ...
- voxelnet_苹果最新机器学习论文:使用VoxelNet进行3D物体检测
原标题:苹果最新机器学习论文:使用VoxelNet进行3D物体检测 原文来源:arXiv 作者:Yin Zhou.OncelTuzel 「雷克世界」编译:嗯~阿童木呀 多啦A亮 现如今,3D点云(3D ...
- 单目3D物体级SLAM | CubeSLAM: Monocular 3D Object SLAM
点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 本文由知乎作者原野寻踪授权转载,不得擅自二次转载.原文链接:https://zhuanlan.zhih ...
- Waymo离线点云序列3D物体检测网络 (3D Auto Labeling): Offboard 3D Object Detection from Point Cloud Sequences
本文介绍一篇Waymo基于点云序列的3D物体检测网络:3D Auto Labeling,论文已收录于CVPR 2021. 这里重点是理解本文提出的 Object-centric Auto Labeli ...
- 详解3D物体检测模型: Voxel Transformer for 3D Object Detection
本文介绍一个新的的3D物体检测模型:VoTr,论文已收录于ICCV 2021. 这是第一篇使用 voxel-based Transformer 做3D 主干网络,用于点云数据3D物体检测.由于有限的感 ...
- 详解3D物体检测模型 SPG: Unsupervised Domain Adaptation for 3D Object Detection via Semantic Point Generation
本文对基于激光雷达的无监督域自适应3D物体检测进行了研究,论文已收录于 ICCV2021. 在Waymo Domain Adaptation dataset上,作者发现点云质量的下降是3D物件检测器性 ...
最新文章
- 《C语言及程序设计》实践项目——画分支结构流程图
- es6 中的generator函数控制流程
- Windows Phone 设置DatePicker图标
- POJ 3628 Bookshelf 2
- 2018 年度 GtiHub 开源项目 TOP 25:数据科学 机器学习
- 东南亚跨境电商蓬勃发展,马来西亚市场分析及选品
- (23)FPGA面试技能提升篇(SSC接口、V35接口)
- hbase major_compact 文件会变小吗_图解式学习:可能是最易懂的Hbase架构原理解析(二)...
- error: undefined reference to `PathTrace::PathTrace(World*)' (Codeblocks, C++)
- 通达OA 2013版和2013增强版两个版本开发的一些差异
- 方法2:U盘,WEPE辅助安装系统
- IDEA Jrebel 激活方法
- 使用curl清理Elasticsearch数据方法
- windows--XP的140个技巧!
- css小猫笑起来的动画
- 电脑哪个服务器可以玩无限连击,无尽之剑3手把手教你无限连击攻略
- 公司常用协同管理软件介绍
- 行波iq调制器_行波电光相位调制器输出响应的定量分析
- 计算机usb接口是一种通用,USB接口大科普,你用的是哪一种?
- 解决安卓PIE无法运行问题