一文搞懂 Cocos Creator 3.0 坐标转换原理

  • 屏幕坐标
  • UI 触点坐标
    • UI 多分辨率适配方案
    • UI 触点获取
  • 不同坐标之间的转换
    • 屏幕坐标与 3D 节点世界坐标互转
    • 3D 节点之间的坐标转换
    • 屏幕坐标转 UI 触点坐标
    • UI 不同节点之间的坐标转换
    • 3D 节点世界坐标转 UI 节点本地坐标
  • 射线检测

转自: cocos官方.

Cocos Creator 3.0 如何将世界坐标转屏幕坐标?Creator 3D 怎么将 3D 坐标转化到 Canvas 上面?触摸的屏幕坐标如何转世界坐标?怎么把 Canvas 下的节点坐标转换为 3D 场景坐标?

在 Cocos 中文社区上,不时能看到和“坐标转换”有关的讨论帖。不论是 Cocos Creator 3D 版本,还是 2D 和 3D 产品融合后的 3.0 版本,都有大量开发者对这方面的操作存在困扰。今天就用一篇文章让大家轻松搞懂坐标转换原理。

屏幕坐标

在 Cocos Creator 3.0 游戏运行时显示的画布大小就是屏幕区域,屏幕坐标是从画布的左下角为原点开始计算,可以通过 view.getCanvasSize 接口获取屏幕尺寸。

知道屏幕起点和屏幕尺寸,此时心里就可以大概估算出点击屏幕时候的触点位置值。触摸事件刚好可以帮助验证,通过 systemEvent 来监听:

 // 监听系统触摸移动事件onEnable () {systemEvent.on(SystemEventType.TOUCH_MOVE, this._touchMove, this);}_touchMove(touch: Touch, event: EventTouch){// 打印获取到的屏幕触点位置console.log(touch.getLocation());}

点击并移动后就能看出坐标值的走向,触点越往右,x 值越大,越往上,y 值越大。

在 Cocos Creator 3.0 中,3D 相机在不设置 viewport 的情况下,尺寸始终跟屏幕尺寸一样大小,这一点很重要,因为后面的内容都离不开相机。

UI 触点坐标

UI 最大的特点就是适配与交互。在看 UI 文档时,可能会获取到几个跟适配最直接的有关联的内容,比如设计分辨率、布局组件(Layout),对齐组件(Widget),多分辨率适配方案等。其中,与坐标直接有关联的就是设计分辨率与多分辨率适配方案,这在官方文档多分辨率适配方案上都有提及,我在此处根据这个知识快速带大家了解一下适配规则是如何影响 UI 内容呈现。

UI 多分辨率适配方案

在 UI 制作时,通常会先确定 UI 设计的大小,称之为设计分辨率。设计分辨率和适配模式决定了运行时 UI 内容尺寸(UI 根节点 Canvas 的尺寸)。在这里必须明确知道的条件就是设计分辨率和设备分辨率(屏幕分辨率)肯定是固定不变的,在这个条件下,了解一下适合大多数游戏开发的两种模式,分别是适配宽度(fit width)和适配高度(fit height)。

在这用一个例子做说明,假设设计分辨率是 960x640,UI 上有一个和设计分辨率一样大小的背景(没有添加 Widget)外加四个始终紧贴 UI 内容区域四角的精灵(四个精灵都带有 Widget 组件,分别是上、下、左、右紧贴 UI 内容区域四角)。

当选用的适配方案是适配高度,屏幕分辨率是 1334x750,此时引擎就会将设计分辨率的高度自动撑满屏幕高度,也就是将场景图像放大到 750/640=1.1718 倍,但是放大后的宽度 9601.1718=1125 依然小于屏幕宽度 1334,这样就容易出现黑边(如下图背景没有铺满屏幕)。这种方式肯定是大多数游戏开发者不想看到的情况,因此,引擎会根据 Widget 组件计算将宽度自动“铺满”屏幕(如下图四个精灵)。

当然,这样的方式也有弊端,就是背景如果完全适应设计分辨率大小(添加了适配组件 Widget,并且上下左右同时适配 UI 内容区域)会出现一定的拉伸。此处,由于拉伸比例较小,所以看的不是很明显,感兴趣的朋友可自行验证。

反过来,如果采用的屏幕分辨率是 960x720,场景图像放大到 720/640=1.125,放大后的宽度为 1.125
960=1080,大于屏幕宽度 960,这样就会出现内容裁切的现象(如下图背景)。因此,引擎会根据 Widget 组件计算将宽度自动“限制”在屏幕内(如下图四个精灵)。这种方式的弊端就是背景如果完全适应设计分辨率大小会出现挤压。

适配宽度也是同样原理。明白了适配原理,就可以根据不同平台选择合适的适配方案。

UI 触点获取

在 UI 上,大家应该最关心的是,如何根据触点位置设置 UI 元素。

对于 Creator 2D 用户来说,获取触点信息的方法是在事件监听回调里,通过 event.getLocation() 获取触点信息,这里的触点信息是屏幕触点根据 UI 内容区域计算出来的;而在 Creator 3.0 里,屏幕和 UI 是完全区分开的,用户可以在没有 UI 的情况下点击屏幕获取触点信息。因此,获取屏幕触点,是通过 event.getLocation()。而希望同样按照 Creator 2D 的方式获取“屏幕触点”坐标,则可以通过 event.getUILocation() 的方式获取。event.getUILocation() 获取到的触点信息,也可以用来直接设置 UI 元素的世界坐标(因为 UI 上的每像素等价于 3D 上的每单位,所以可以根据这个坐标点直接设置 UI 元素的世界坐标)。

const location = touch.getLocation();
console.log(`screen touch pos: ${location}`);
const locationUI = touch.getUILocation();
console.log(`UI touch pos: ${locationUI}`);

const pos = new Vec3(locationUI.x, locationUI.y, 0);
// 此处的 sprite 就是屏幕上的白色图片的引用
this.sprite.setWorldPosition(pos);


当然,对于渲染原理比较清楚的同学,也可以直接通过屏幕坐标与 UI 相机的方式来处理,具体原理请参考下方的屏幕坐标与 3D 节点世界坐标互转。

// 此脚本挂载在 Canvas 节点身上// 获取屏幕坐标const location = touch.getLocation();const screenPos = new Vec3(location.x, location.y, 0);const pos = new Vec3();const canvas = this.getComponent(Canvas)!;// 获取 Canvas 关联相机的相机数据const uiCamera= canvas.cameraComponent?.camera!;
// 利用相机数据对象将屏幕点转换成世界坐标下的值
uiCamera.screenToWorld(pos, screenPos);
this.sprite.setWorldPosition(pos);注意:此处是因为 UI 没有深度信息,因此可以直接设置世界坐标,将 z 值固定为 0。如果是 3D 节点,还要考虑深度。
在预计 3.4 以及之后的版本会统一用相机来转换,大家就不需要理解 UI 触点这个概念,之后也会提供相对应的转换方式使用文章,望悉知。

不同坐标之间的转换

了解了屏幕坐标、UI 坐标以及相机,接下来就可以做更多坐标之间的转换。首先再说明一下本地坐标与世界坐标之间的关系:

世界坐标的中心点(也称之为原点)是节点在场景下创建的,位于节点树最外层并且它的 positon 属性值全部都是 0 的节点所处的位置,就是世界坐标的中心点。所有节点通过 node.getWorldPosition 接口获取到的值,都是对于该位置的偏移值,也可以理解为绝对差值。而本地坐标是相对于父节点的偏移。假设节点 A 的世界坐标为 (0,10,0),节点 B 是节点 A 的直接子节点,节点 B 的本地坐标是 (0,10,0),节点 A 和 B 都没有旋转和缩放,那么节点 B 的世界坐标是多少?


答案显而易见是(0, 20, 0)。节点 B 的坐标是本地坐标,本地坐标是相对于父节点的偏移,也就是 B 相对于 A 在 y 值上偏移 10,A 的世界坐标 y 值为 10,也就是相对于世界原点偏 y 值偏移了 10,那么可以计算出,B 相对于世界原点 y 值偏移了 10+10=20。

屏幕坐标与 3D 节点世界坐标互转

在进行 3D 节点位置转换到屏幕坐标这项工作之前,先要了解一下 3D 物体最终是如何渲染到屏幕上的。

首先,所有的物体都需要被相机照射才能显示,因此,物体需要在相机的视距框内,在这里需要做一次世界空间转相机空间的操作。其次,在相机空间下还需要做深度检测等操作,最后,将空间内容投影到屏幕。这部分怎么理解呢?看下图:

在这里用透视相机举例,这是透视相机的俯视图,透视相机近平面值是 1,远平面值是 1000。相机的可视范围是从近平面到远平面,从图上可以看出,越接近近平面,也就是深度值越小的横切面面积越小,反之越大。不同面积的横切面最终铺满绘制到同一个画布上,就会出现近大远小的效果,同时,不同切面之间也会经过深度检测实现视野近的物体遮挡视野远的物体。最后的呈现就有点类似于用相机拍照片这么一个过程,将所有立体的东西都“拍扁”。知道了物体如何绘制到屏幕上,反过来是不是也很容易呢?

其实并没有那么容易。因为平面的东西变得立体需要经过很多细节化处理。在这里通常需要处理的最直接的一点就是深度还原。根据画面的呈现,决定它原来应该处于的深度,因此,在做屏幕触点转 3D 节点世界坐标的时候,可以指定深度。深度的范围如上图是近平面到远平面之间,也就是 1 - 1000,在数值上采用的是归一化的值 0 - 1。在默认情况下,如果不指定深度,那么物体转换后的位置是在近平面位置,如果是 0.5,那么则是距离相机 500 左右的位置。

接下来,通过下方代码,就能轻松实现屏幕坐标与 3D 节点世界坐标的互相转换:

 // 3D 相机引用@property(Camera)camera: Camera = null!;@property(MeshRenderer)meshRenderer: MeshRenderer= null!;onEnable () {systemEvent.on(SystemEventType.TOUCH_START, this._touchStart, this);
}_touchStart (touch: Touch, event: EventTouch) {// 获取 3D 相机里的相机数据const camera = this.camera.camera;const pos = new Vec3();// 1. 3D 节点世界坐标转屏幕坐标const wpos = this.meshRenderer.node.worldPosition;// 将 3D 节点的世界坐标转换到屏幕坐标camera.worldToScreen(pos, wpos);// 2. 屏幕坐标转 3D 节点世界坐标// 获取当前触点在屏幕上的坐标const location = touch.getLocation();// 注意此处的 z 值。将近平面到远平面之间的距离归一化到 0-1 之间的值。// 如果值是 0.5,那么转换后的世界坐标值则是在相机近平面到远平面的中心切面的位置const screenPos = new Vec3(location.x, location.y, 0.5);camera.screenToWorld(pos, screenPos);
}

为了便于观察,此处将相机的远平面调整为 20。

3D 节点之间的坐标转换

// 3D 节点 nodeB 本地坐标转换到 3D 节点 nodeA 本地坐标
const out = new Vec3();
const tempMat4 = new Mat4();
const nodeAWorldMat4 = nodeA.getWorldMatrix();
Mat4.invert(tempMat4, nodeAWorldMat4);
Vec3.transformMat4(out, nodeB.worldPosition, tempMat4);

屏幕坐标转 UI 触点坐标

在这里还是要明确一下,UI 触点坐标就是屏幕触点根据 UI 内容区域计算出来的值,也就是 UI 世界坐标值。这个概念本身不太好理解,也显得繁杂,因此,引擎组也会在之后的版本里改善这种转换方式,直接通过相机来处理。但是在 3.4 之前的版本还需要用,所以此处直接做一个简单的总结:

在监听节点事件触发的回调里执行 event.getUILocation 获得到的值是触点信息是屏幕触点根据 UI 内容区域计算出来的值,可以直接用于设置 UI 节点的世界坐标。如果有设计需求是需要点击屏幕设置 UI 节点的,就直接用该方法。

// An highlighted block
const locationUI = touch.getUILocation();
const pos = new Vec3(locationUI.x, locationUI.y, 0);
this.sprite.setWorldPosition(pos);

UI 不同节点之间的坐标转换

与 Creator 2D 不同,UI 节点的尺寸和锚点信息不再在节点身上,而是每一个 UI 节点都会持有一个 UITransform 组件,因此,有关 UI 节点之间的变换 API 都在该组件身上。当获取到屏幕触点转换后的 UI 节点世界坐标之后,就可以根据该坐标转换到不同 UI 节点的本地坐标。

● 屏幕触点坐标转换到 UI 节点本地坐标


// 假设此处有两个节点,nodeA 和它的字节的 nodeB,点击屏幕设置 nodeB 的坐标// 屏幕触点根据 UI 内容区域计算出来的值
const locationUI = touch.getUILocation();
const uiSpaceWorldPos = new Vec3(locationUI.x, locationUI.y, 0);
const nodeAUITrans = nodeA.getComponent(UITransform)!;
// 转换到 nodeA 节点下的本地坐标(该值也就是相对于 nodeA 的值)
nodeAUITrans.convertToNodeSpaceAR(uiSpaceWorldPos, pos);
nodeB.position = pos;

● UI 节点之间坐标互转

 // 假设此处有两个节点,nodeA 和 nodeB,它们既不为兄弟也不存在父子关系const nodeBUITrans = nodeB.getComponent(UITransform)!;// 最终偏移值存储在 pos 上const pos = new Vec3();// 获取 nodeA 相对于 nodeB 的偏移nodeBUITrans.convertToNodeSpaceAR(nodeA.worldPosition, pos);nodeA.parent = nodeB;nodeA.position = pos;// 如果此处希望取与自身带有一定偏移的点做转换,可以采用如下方法:
// 相对于 nodeA x 轴偏移 10 个单位
const offset = new Vec3(10, 0, 0);
const nodeAUITrans = nodeA.getComponent(UITransform)!;
// 将偏移后的值转换到世界坐标
nodeAUITrans.convertToWorldSpaceAR(offset, pos);
// 获取相对于 nodeA 在 x 轴上偏移 10 个单位的点,转换到相对于 nodeB 的偏移
nodeBUITrans.convertToNodeSpaceAR(pos, pos);
nodeA.parent = nodeB;
nodeA.position = pos;

3D 节点世界坐标转 UI 节点本地坐标

上面的内容已经铺垫很多了,这里直接上代码,原理就是将 3D 节点的世界坐标转换到屏幕坐标再转换到 UI 节点的本地坐标。

 // 假设 3D 节点 cube,UI 节点 spriteA,const out = new Vec3();const wpos = cube.worldPosition;// 直接调用相机的转换接口完成整个操作// 此处 out 获取的值是“相对于”spriteA偏移的值camera.convertToUINode(wpos, spriteA, out);const node = new Node();// 本地坐标才是相对于父节点的偏移,因此,需要明确好转换后的父节点,否则就会出现转换一直不正确的现象node.parent = spriteA;node.position = out;

射线检测

在开始说射线检测怎么用之前,先要说说为什么要有射线检测。很多 Creator 2D 同学开发游戏的时候,都知道节点身上有一个 “Size” 属性,代表这个节点的尺寸。点击屏幕的时候,在大多数情况下引擎通过触点与节点的位置和 “Size” 计算是否该节点被点击到。监听方法采用节点事件,在节点被点击到时触发回调,代码如下:

this.node.on(Node.EventType.TOUCH_MOVE, this._touchMove, this);

但是在 Creator 3.0 3D 节点上使用该方法是行不通的,因为 3D 节点没有所谓的 “Size” 属性,在不同的深度下,物体所呈现的大小是不一样的。因此,物体是否被点击到是无法简单通过位置和 “Size” 计算。在这里就需要使用到射线检测功能。

射线检测简单来说就是可以指定一个起点 A 和一个终点 B,引擎会发射一条由 A 到 B 的射线,收集并返回与射线碰撞到的所有对象各自的位置、法线等信息,这样就能知道点击到的对象是谁,以及它们分别如何处理。Cocos Creator 3.0 提供了 3 种创建射线的方法:

 import { geometry } from 'cc';const { ray } = geometry;// 方法 1. 通过起点 + 方向的方式// 构造一条从(0,-1,0)出发,指向 Y 轴的射线// 前三个参数是起点,后三个参数是方向const outRay = new ray(0, -1, 0, 0, 1, 0);// 或者
const outRay2 = ray.create(0, -1, 0, 0, 1, 0);// 方法 2. 通过起点 + 射线上的另一点// 构造一条从原点出发,指向 Z 轴的射线
const outRay = new ray();
geometry.ray.fromPoints(outRay, Vec3.ZERO, Vec3.UNIT_Z);// 方法 3. 用相机构造一条从相机原点到屏幕某点发射出的射线// 假设此处已经关联上一个相机
const cameraCom: Camera;
const outRay = new ray();
// 获得一条途径屏幕坐标(0,0)发射出的一条射线
// 前两个参数是屏幕坐标
cameraCom.screenPointToRay(0, 0, outRay);

从上述射线创建的方法来看,如果要点击屏幕判断是否点击到某个对象,采用的是方法 3。细心的朋友可能想问,为啥判断点击屏幕是否点击到某个 3D 对象需要用到相机?接下来,我在场景里用两个相机照射同一个胶囊体,大概就能解释清楚这里面的关系。

此时,你就会清楚的发现,即使游戏场景里只有一个胶囊体,但是如果用两个不同拍摄角度的相机照射,是会在画布上看到两个物体 A 的。此时,点击区域 1,胶囊体究竟是否被点击到了?点击区域 2,胶囊体究竟是否被点击到了?根本无法判定。


如果指定相机判断,是不是就明确了许多。用相机 A 的视角判断,点击区域 1,没有点击到胶囊体;用相机 B 的视角判断,点击区域 1,点击到了胶囊体。可以通过下方代码验证:


import { _decorator, Component, systemEvent, SystemEventType, Touch, EventTouch, Camera, geometry, MeshRenderer } from 'cc';onst { ccclass, property } = _decorator;onst { Ray, intersect } = geometry;onst { rayModel } = intersect;@ccclass('TestPrint')export class TestPrint extends Component {// 指定相机@property(Camera)camera: Camera = null!;// 指定模型的渲染组件@property(MeshRenderer)meshRenderer: MeshRenderer= null!;onEnable () {systemEvent.on(SystemEventType.TOUCH_START, this._touchStart, this)}_touchStart(touch: Touch, event: EventTouch){const location = touch.getLocation();const ray = new Ray();// 创建一条连接触点位置与相机位置的射线this.camera.screenPointToRay(location.x, location.y, ray);// 获取到渲染组件身上用于存储渲染数据的 model 做射线检测const raycast = rayModel(ray, this.meshRenderer.model!);// 返回值只有 0 与 !0,0 就是没检测到if(raycast > 0){console.log('capsule clicked');}}
}

注:两个相机照射的内容如果都需要在画布上呈现,那么其中一个相机的 ClearFlags 需要为 DEPTH_ONLY。

一文搞懂 Cocos Creator 3.0 坐标转换原理相关推荐

  1. 一文搞懂 Cocos Creator 3.x 坐标转换!建议收藏

    Cocos Creator 3.x 如何将世界坐标转屏幕坐标?Creator 3D 怎么将 3D 坐标转化到 Canvas 上面?触摸的屏幕坐标如何转世界坐标?怎么把 Canvas 下的节点坐标转换为 ...

  2. 一文搞懂Spring AOP源码底层原理

    一.什么是AOP 与OOP对比,AOP是处理一些横切性问题,这些横切性问题不会影响到主逻辑实现的,但是会散落到代码的各个部分,难以维护.一键获取源码地址spring aop面试题 AOP就是把这些问题 ...

  3. 一文搞懂GPU的概念、工作原理,以及与CPU的区别

    近几个月,几乎每个行业的小伙伴都了解到了ChatGPT的可怕能力.你知道么,ChatGPT之所以如此厉害,是因为它用到了几万张NVIDA Tesla A100显卡做AI推理和图形计算. 本文就简单分享 ...

  4. 一文搞懂C++虚函数的实现原理

    虚函数的概念 虚函数是实现C++中面向对象的三大特性之一--多态的一种技术手段. 什么是多态呢? 在基类的成员函数前,使用virtual修饰得到的就是虚函数.在派生类中,对继承得到的虚函数,进行重写, ...

  5. LeetCode刷题复盘笔记—一文搞懂0 - 1背包之494. 目标和问题(动态规划系列第九篇)

    今日主要总结一下动态规划0-1背包的一道题目,494. 目标和问题 题目:494. 目标和 Leetcode题目地址 题目描述: 给你一个整数数组 nums 和一个整数 target . 向数组中的每 ...

  6. python语言语句快的标记是什么_一文搞懂Python程序语句

    原标题:一文搞懂Python程序语句 程序流 Python 程序中常用的基本数据类型,包括: 内置的数值数据类型 Tuple 容器类型 String 容器类型 List 容器类型 自然的顺序是从页面或 ...

  7. 一文搞懂HMM(隐马尔可夫模型)-Viterbi algorithm

    ***一文搞懂HMM(隐马尔可夫模型)*** 简单来说,熵是表示物质系统状态的一种度量,用它老表征系统的无序程度.熵越大,系统越无序,意味着系统结构和运动的不确定和无规则:反之,,熵越小,系统越有序, ...

  8. 一文搞懂如何使用Node.js进行TCP网络通信

    摘要: 网络是通信互联的基础,Node.js提供了net.http.dgram等模块,分别用来实现TCP.HTTP.UDP的通信,本文主要对使用Node.js的TCP通信部份进行实践记录. 本文分享自 ...

  9. 一文搞懂AWS EC2, IGW, RT, NAT, SG 基础篇下

    B站实操视频更新 跟着拉面学习AWS--EC2, IGW, RT, NAT, SG 简介 长文多图预警,看结论可以直接拖到"总结"部分 本文承接上一篇文章介绍以下 AWS 基础概念 ...

最新文章

  1. 2022-2028年中国纤维增强聚合物行业市场调查研究及发展前景规划报告
  2. 从源码分析DEARGUI之添加字体
  3. Android应用在不同版本间兼容性处理
  4. 数位dp 记忆化搜索java_hdu 5787 数位dp,记忆化搜索
  5. JAVA_OA(八):springMVC对JDBC的操作小项目a
  6. bzoj4817: [Sdoi2017]树点涂色
  7. hadoop练习处理地震数据
  8. SharePoint自动化部署,利用PowerShell 导入用户至AD——PART II
  9. 微课|《Python编程基础与案例集锦(中学版)》第4章例题讲解(3)
  10. 调整连字符号分隔字母的个数
  11. UR+RealSense手眼标定(eye-to-hand)
  12. 简单快速获取思维导图
  13. 互联网日报 | 4月5日 星期一 | 华为首款台式显示器登陆海外;腾讯视频VIP会员4月10日起涨价;我国民宿房源超300万套...
  14. 马哲概述 如何理解商品的使用价值与价值以及货币,纸币
  15. Java字节码角度分析多态原理 ——提升硬实力8
  16. 【论文笔记】Proofs-of-delay and randomness beacons in Ethereum-2017IEEE SB Workshop
  17. (一看就会)让VM虚拟机之间联网并能相互ping通
  18. 人工智能的逆向工程--反向智能研究综述
  19. Manjaro Linux 17.0.2 KDE环境安装、配置记录
  20. 鸿蒙处理器要比骁龙好吗,三星Exynos1080和骁龙865Plus哪个好_处理器对比

热门文章

  1. GitHub 上受欢迎的 Android UI Library整理(part_two)
  2. [转载]拥抱Jini:从Starter Kit 2.0开始(第二部分)
  3. 【报错】unknown error: DevToolsActivePort file doesn‘t exis
  4. 为什么计算机连接不上打印机,为什么电脑连接打印机后却没反应
  5. Android获取电子签名内容,Android Studio 获取app签名
  6. 智能照明系统雏形(esp8266nodemcu开发板+点灯科技软件+声控模块+光敏模块+人体感应模块)
  7. 权限管理系统项目文档——Vue前端
  8. Android 汉字转拼音工具
  9. mac创建文件服务器,mac命令行终端怎么创建文件 mac命令行终端创建文
  10. 怎么翻译Excel表格?两个方法可以轻松翻译Excel