文章目录

  • 一、前言
  • 二、为什么要开发性能评估框架?
    • 1. 应用平台之间操作环境不一样
    • 2. 文献中性能评价指标不一样
    • 3. 有很多误差源没有被考虑到
    • 4. 术语的使用歧义
  • 三、性能评估框架
    • 1. 框架介绍
    • 2. 测试项
      • (1)头部姿势
      • (2)用户距离和视角
      • (3)显示器尺寸和分辨率
      • (4)相机分辨率
      • (5)照明度(尚未给出结论)
      • (6)遮挡问题(尚未给出结论)
      • (7)平台的移动(尚未给出结论)
  • 四、结论
  • 五、视线追踪领域其他知识
    • 1、基本概念
      • (1)眼部动作的类型
      • (2)基本设备构成和方法
      • (3)校准 calibration
      • (4)视线和头部位置的关系
      • (5)视线追踪精确度的评估
    • 2、视线估计算法
      • (1)基于2D回归的方法
      • (2)基于3D模型的方法
      • (3)基于交叉比的方法
      • (4)基于外观
      • (5)基于形状

一、前言

本博客核心参考论文:

A Review and Analysis of Eye-Gaze Estimation Systems, Algorithms and Performance Evaluation Methods in Consumer Platforms

A. Kar and P. Corcoran, Towards the development of a standardized performance evaluation framework for eye gaze estimation systems in consumer platforms, in Proc. IEEE Int. Conf. Syst., Man, Cybern., Budapest, Hungary, Oct. 2016, pp. 002061 002066.

目前,视线追踪技术有以下应用平台:

  • 电脑:主要用来人机交互——计算机通信和文本输入(比鼠标更有效率,而且更适合残障人士使用)
  • 电视:选择和导航菜单和切换频道
  • 头戴设备:应用于用户注意、认知研究、精神分析;或者是VR的局部渲染,如果能够通过头盔内置摄像头估计人的视线方向,则可以对场景做局部精细渲染,即仅对人视线范围内的场景精细渲染,从而大大降低硬件成本。
  • 汽车装备:检测驾驶员是否疲劳驾驶以及注意力是否集中。
  • 手持设备:亮度、音量调节等人机交互功能。

在这些不同平台中,由于硬件、生物差异等因素各不相同,导致不同平台间的变量很多,差异很大,导致同样的算法在不同平台中表现会不一样。

同时,还因为在当今的研究文献中:

  1. 不同文献衡量视线追踪性能的指标也不一样,导致不同研究之间很难直接进行对比;
  2. 在进行视线追踪研究时,所考虑的误差不够全面,所查阅的文献中,只有少数几篇论文研究了操作条件对系统性能的影响;
  3. 术语的使用也没有一个统一化的规范。

这一切都不利于该领域的后续发展。所以,为了:

  1. 研究各种误差源对系统性能的影响;
  2. 以统一误差格式,来定量报告系统性能;
  3. 确定每个平台的精度性能瓶颈。

本文:

  1. 提出了一个标准化的性能衡量框架。
  2. 为视线评估技术做一个综述性的介绍,包括系统、算法、以及有哪些误差因素会影响精度。

二、为什么要开发性能评估框架?

1. 应用平台之间操作环境不一样

五个平台中视线追踪技术的使用条件完全不同。因此,根据平台的不同,视线追踪器也可能产生显著不同的结果。

表4给出了五个视线追踪平台的硬件配置和使用条件,包括用户姿势和视角、屏幕尺寸、用户与屏幕摄像机设置之间的典型距离。

在误差方面(使用度数误差):

  • 通常情况下,头戴式系统误差低于一度,优于其他平台。
  • 对于桌面系统,其误差从0.5度到2度不等
  • 对于汽车和手持设备等更具动态性的平台,其误差在2度以上。

2. 文献中性能评价指标不一样

通常来讲,我们使用以下指标来衡量视线追踪系统的性能:

  1. 角度分辨率(以度为单位)
  2. 视线识别率(以百分比为单位)
  3. 视线和目标位置之间的最小像素位移/距离。

但是这些指标之间没有任何关联。在参考文献中,不同的文章使用了不同的指标,例如百分比识别率或错误率。这就导致了,大多数视线估计方法之间无法相互比较。

图10显示了不同平台不同格式精度的论文数量。


从表5可知,视线估计这项研究中,目前没有一个用来评价性能指标的标准。如表所示,在来自电脑/电视应用平台的总共69篇论文中:

  • 44篇论文使用了以度为单位的追踪精度
  • 16篇论文使用了视线识别率
  • 9篇论文使用了混合单位。

而在所有平台的182项研究工作中:

  • 95篇论文报告了以度为单位的视线准确度得分
  • 41篇论文报告了百分比(正确检测率)
  • 46篇论文使用了其他单位。

另外,桌面和头戴式平台常使用度作为单位,而汽车或手持设备更倾向使用其他度量衡。这样会导致大量研究得出的性能既不能比较,也不能进行定量解释。

3. 有很多误差源没有被考虑到

视线追踪系统会被很多因素影响,这些因素,我们称之为误差源。

  • 在台式机平台上,误差主要来源于头部移动。
  • 在头戴式设备中,误差源于追踪器未校准、追踪器延迟…
  • 汽车系统,头部移动、可变照明、阴影造成的遮挡或用户戴眼镜…
  • 在手持设备中,用户相对于设备的位置发生变化、头部姿势、手抖动、可变照明和Midas-touch。

[31] B. B. Velichkovsky, M. A. Rumyantsev, and M. A. Morozov, New solution to the midas touch problem: Identification of visual commands via extraction of focal fixations, Procedia Comput. Sci., vol. 39, pp. 75 82, Dec. 2014.

在视线估计中,有些误差源已经进行了研究:

  • 头部姿势的变化
  • 用户距离和视角。

但是也有很多误差源没有考虑:

  • 如追踪视线的屏幕的尺寸和像素分辨率
  • 平台移动和抖动
  • 照明变化
  • 相机质量
  • 人眼遮挡等

众多文献中:

  • 基于桌面系统的69篇论文中,只有35篇报告了头部姿势变化的影响
  • 基于头戴式系统的57篇论文中,只有16篇报告了头部姿势变化的影响
  • 台式和头戴式平台中都只有2篇论文报告了视线追踪装置的显示属性的效果。
  • 4篇论文在台式机上报道了照明变化的影响,
  • 1篇在头戴式系统上报道了照明变化的影响。
  • 在汽车和手持设备等动态平台中,外部条件更多,评估统计数据甚至更差。


为了研究这种情况,表6给出了各种误差源的统计数据,以及它们的研究程度。

  • 从表中可以看出,每种平台都会遇到至少5-6种误差源件,但对于五种平台,有哪些共同的误差源呢?只可惜这方面研究较少,头部姿态是研究最多的因素,但其他误差源的影响很少有论文分析。

只有对这些误差源有充分评估了解,我们才能可靠地给出视线追踪系统的精度。

4. 术语的使用歧义

在实现追踪领域的众多文献中,有些词语的使用并不精确,并没有给出一个定量的概念。例如:

  • 轻微头部运动slight head movement(如[43]、[78]和[145])
  • 剧烈头运动large head movement(如[45]、[47]和[66])
  • 自由头部运动free head movement(如[53]、[56]和[67])

这都无法满足定量化衡量性能的需求。综上,我们需要一个统一的标准化性能评估框架。

三、性能评估框架

1. 框架介绍

性能评估框架由一系列标准化测试,来评估视线追踪算法、系统在各种误差参数的影响下的实际性能:

  • 如头部姿态的变化、视角、屏幕大小和分辨率、眼遮挡、平台运动和光照变化。

这些误差可以被分为三大类,见框架结构示意图11:

  1. 人的因素:头部姿态、眼睛遮挡、手部姿势和震动
  2. 设备的因素:相机的数量、分辨率
  3. 环境的因素:平台本身的移动、光照变化、屏幕大小和分辨率、用户和设备的距离

这个框架在开发完成后,能帮助我们回答以下问题:

  1. 在一个特定用例中,到底是哪一个系统参数影响了实际性能?
  2. 在同样操作条件下,与它类似系统相比,他的的性能如何?
  3. 为一个平台设计的算法能否在另一个平台上有效移植和实现?
  4. 算法的性能瓶颈是什么?

目前框架还在开发中。

2. 测试项

在这个框架中,我们针对不同的测试项,分别展开测试。测试步骤如下

  1. 使用者坐在视线追踪器前面,并进行眼睛校准(calibration)。
  2. 使用者会盯着屏幕上出现的一些点看,同时,实现追踪器会记录使用者的视线坐标。
  3. 根据真实值和实现追踪值之间的偏移来计算误差(以°为单位)。

一些视线追踪器的评估的初步结果见[24]。

[24] A. Kar and P. Corcoran, Towards the development of a standardized performance evaluation framework for eye gaze estimation systems in consumer platforms, in Proc. IEEE Int. Conf. Syst., Man, Cybern., Budapest, Hungary, Oct. 2016, pp. 002061 002066.

我们将测试以下误差:

(1)头部姿势


测试头部姿态对误差的影响,步骤如下:

  1. 用户被定位在视线追踪器的前面,之后摄像机捕获头部的位置;

  2. 使用如图12所示的头部姿态模型,从视频中获得用使用者的当前的roll、pitch、yaw 三维偏转度;

  3. 之后,让用户的头转向一个特定的位置(特定的 roll、pitch、yaw);

  4. 校准 calibration(后面5.1.3章节会讲到);

  5. 进行实现追踪测试;

  6. 保存数据,计算精准度。

     补充一下:- pitch ():俯仰,将物体绕X轴旋转- yaw ():偏航,将物体绕Y轴旋转- roll ():横滚,将物体绕Z轴旋转
    

图13显示了各种头部姿势角度对应的视线精度。如果想要观察到可靠的视线追踪结果,头部姿势必须限制在3个方向(x、y、z)20度的运动范围内。这样,我们就可以得到视线追踪器能接受的最大头部姿态误差。

  • 此图显示了使用者头部旋转角度与实现追踪精度的关系曲线,人的头部在三个维度(单侧)上的旋转范围为±40°。通过我们的测试,头部运动的误差极限是20°,如果用户的头部移动超过了这些角度,追踪器误差就会超过可接受的水平。
  • 另一个特征是,头部滚动和俯仰对追踪误差的影响相对比偏航变化更明显。

(2)用户距离和视角

在本实验中,使用者固定头部姿势,正面面向屏幕,且与计算机屏幕测试距离为40 - 100厘米,依次递增10厘米,记录每个位置的视线跟踪精度。如图7所示

  1. 用户的视角随着使用者远离屏幕而减小。
  2. 随着观测角度的增加,误差迅速下降。
  3. 当用户太接近跟踪器时,也就是用户对跟踪器屏幕设置小于40厘米时,跟踪器误差也很高(但图中并没有反映这一信息)。

(3)显示器尺寸和分辨率

实验在4中不同的屏幕上进行测试,结果如下所示。

(4)相机分辨率

每个视线跟踪装置都有一个或多个摄像头,相机的分辨率直接影响所捕获图像中眼睛的细节程度,从而影响视线跟踪的准确性[29]。

[29] W. W. Abbott and a a Faisal, “Ultra-low-cost 3D gaze estimation: an intuitive high information throughput compliment to direct brain–machine interfaces,” J. Neural Eng., vol. 9, no. 4, p. 046016, 2012.

为了研究相机分辨率对注视估计误差的影响,在恒定光照下,在相机和用户之间不同距离下,使用相机分辨率从130万像素到2400万像素的相机分辨率采集眼睛图像,如图9所示。

我们使用眼窝宽度上的像素个数来衡量眼部细节程度,如图10所示。

眼睛的细节程度与相机距离的关系见图11 、12。

对于低分辨率的相机,当眼睛远离相机时,眼部细节变低,图像质量急剧降低;而用高质量的相机,随着距离的变化,眼睛的细节几乎保持不变。

我们将实际瞳孔中心与检测到的瞳孔中心之间的误差为瞳孔检测误差。这个误差与相机分辨率的关系如图14所示。

  • 可以看到,相机的像素越高,误差越小
  • 在一米内,相机分辨率在8 MP(800万像素)左右会趋于平稳,这个值是一个最佳的相机分辨率。

(5)照明度(尚未给出结论)

在测试过程中可以引入几种不同的照明水平:

  • 荧光灯(色温∼6400K)
  • 白炽灯(色温∼ 2500 K)
  • 混合灯(色温∼ 5500K)

在这些光照条件下,分别进行视线追踪测试,以研究对追踪精度的影响。

(6)遮挡问题(尚未给出结论)

有时候,戴眼镜会产生眼部遮挡,从而会影响一部分视线追踪器。因此,在对戴眼镜和不戴眼镜的用户进行视线测试时,必须通过同时使用两个追踪器来评估视线追踪器对遮挡的耐受程度。

(7)平台的移动(尚未给出结论)

视线追踪器在静态平台(如台式机)上的操作环境,和移动平台(如智能手机或头戴式装置)有很大的不同。

因此,我们计划在移动平台上来测试视线追踪的精度、性能,研究平台的移动 所带来的影响。

此项试验尚未开始实施。该框架目前正在开发中,我们在[24]中公布了一些测试的初步结果。

[24] A. Kar and P. Corcoran, Towards the development of a standardized performance evaluation framework for eye gaze estimation systems in consumer platforms, in Proc. IEEE Int. Conf. Syst., Man, Cybern., Budapest, Hungary, Oct. 2016, pp. 002061 002066.

四、结论

(1)不同平台、设备中所使用的度量各不相同:

  • 不同平台中,各种误差源都可能会影响视线追踪。
  • 目前,视线追踪系统能够在不约束头部运动的情况下,实时确定三维视线落点,误差约为0.5度。
  • 但相机质量、随机照明变化、用户戴眼镜(遮挡)和平台移动这些误差源,在参考文献中没有得到很好的描述,也没有数据统计。
  • 头部移动、用户距离和视角、视线追踪器装置本身的属性所带来的误差,这方面的研究仍然很差。
  • 同时在报告中,用于衡量精确度的单位、格式的各不相同,所以不同系统和算法之间无法进行比较。

(2)为了解决以上问题,作者提供了一种标准化的框架,并在文章中介绍了:

  1. 框架有哪些测试方法?有哪些测试项?
  2. 以及一部分实现的细节。
  3. 目前框架正在开发中,其他细节将包含在后续论文中。

(3)同时,本文详细介绍了视线估计的最新进展(截止于2017),做了一个系统性的科普(见下一章)。

五、视线追踪领域其他知识

1、基本概念

(1)眼部动作的类型

通过搜集眼部动作,可以获得用户意图、认知过程、行为和注意力分析的信息。

眼部动作分为以下几类:

  1. 注视:指眼睛在停下来之后,到图像输入进大脑这部分过程。具体参数包括:总视线持续时间、 平均视线持续时间、 视线空间密度、视线区域数量、视线顺序、视线率。
  2. 眼跳:指在【注视】之间发生的快速、不自觉的眼球运动。可测量参数包括: 眼跳数、幅度、视线眼跳比。
  3. 扫描路径:指在眼睛到达目标位置之前的这部分阶段。其包括一系列短暂的【注视】和【眼跳】。具体参数包括:扫描路径方向、持续时间、长度和覆盖面积。
  4. 视线持续时间:指眼睛离开兴趣区之前,在一片区域的总【注视】时长,以及在每个兴趣区所占的时间比例
  5. 瞳孔大小和眨眼:瞳孔大小和眨眼率会用来衡量认知负载。

表1显示了不同眼部动作的特征及其应用。

(2)基本设备构成和方法

基于视频的视线追踪系统由以下组件组成:

  1. 一个或多个相机
  2. 近红外(NIR) LED灯(之所以是红外线,是防止光线影响用户注意力,之所以是近红外,是因为对人体无害)
  3. 和一台计算机。

一个典型的视线追踪装置如图1所示,步骤包括:

  1. 用户校准(校准会在下一小节讲到)
  2. 捕获脸和眼睛区域的视频帧
  3. 眼睛检测
  4. 在屏幕上映射出视线坐标

这种方法我们称之为瞳孔-角膜反射技术(Pupil Center Corneal Reflection )PCCR法,该方法原理如下:

  1. 使用红外线照射眼睛,使我们的角膜上产生一个亮斑(就是下图中白白的那个光斑,只不过事实上使用的是近红外线而不是普通光源);
  2. 使用摄像机采集反射回来的这个光斑(注意,唯一的光源就是红外线灯);
  3. 由于眼球的生理结构和物理性质,在光源和头部相对位置不变的前提下,角膜反射形成的光斑不会移动;
  4. 光源光线从瞳孔射入,视网膜反射光线从瞳孔射出,再采集这个光线,这个从视网膜上反射的光线方向标示了瞳孔的朝向
  5. 根据 角膜反射光线 和 瞳孔反射光线 之间的相对位置,便可以计算视线的方向。

PCCR眼动技术的核心原理可以用一句话表述:“视线方向由瞳孔中心相对于角膜上光斑的反射的位置确定。

另外,当盯着一个固定目标时,无论如何移动头部,瞳孔中心和角膜反射之间的位置关系都不会改变(如上图所示)。因此,PCCR方法能够接受一定程度的头部移动,在光源和头部位置相对稳定的情况下,采集角膜和视网膜反射的光线,并分析它们的相对位置关系,就能够得到瞳孔朝向的数据。这就是瞳孔-角膜反射式眼动仪(视线追踪器)的原理。

(3)校准 calibration

在视线估计中通常需要以下眼相关参数:

  1. 瞳孔中心
  2. 角膜曲率中心
  3. 光轴Optical axes(物理上的中心旋转轴)
  4. 视轴visual axes

其中:

  1. 眼球后部的边被称为视网膜
  2. 视网膜中心敏感度最高的地方被称为中央凹
  3. 连接中央凹与角膜曲率中心的线称为视轴(与直觉相反,这根线才是视线)
  4. 光轴为穿过瞳孔中心和角膜曲率中心的直线。

视轴决定视线的方向,并与光轴有一个夹角。这个角度被称为kappa角,一般测量值约为5度,但具体是多少度?以及kappa角的平移分量和倾斜分量,都因人而异,所以,视轴不能直接计算。

那视轴怎么获得呢?每个人的视轴和kappa角都必须通过校准来获得,校准必须在眼球追踪开始之前完成。

校准是通过向用户显示分布在前屏幕上的一组特定目标(如图2所示)来执行的,并要求用户注视这些目标一定时间[38]。跟踪器相机捕捉每个目标点的对应的眼球的位置,然后将其映射到相应的视线坐标,让跟踪器学习该映射函数。

校准因目标点的数量、布局、每个点的用户注视持续时间,以及使用的映射算法类型都各不相同,在此就不展开细讲了。

[38] K. Harezlak, P. Kasprowski, and M. Stasch, ``Towards accurate eye tracker calibration_Methods and procedures,’’ Procedia Comput. Sci., vol. 35, pp. 1073_1081, Sep. 2014.

(4)视线和头部位置的关系

视线估计的最终结果,既取决于视线方向 + 头部方向。在使用PCCR技术的方法中,如果使用者的头部相对于捕捉光斑的摄像头发生移动(前提是用户没有盯着一个固定目标),那么相对于瞳孔中心(对于头部移动产生的两个不同眼睛位置)的闪烁向量将彼此不同。因此,原有的视线估计就会产生错误。

实际视线方向(dkgaze)是头部和眼睛旋转的结果,如图3所示。

在应用视线追踪算法之前,必须对头部运动的影响进行补偿,或者使用下巴托来固定头部姿势。

(5)视线追踪精确度的评估

在传统的文献中,视线追踪精度测量方法有不同的表述方式,例如以度表示的角度精度、以厘米表示的距离精度、像素表示的距离精度。

在实际中,两眼的计算是分开的,但是为了简单易懂,将左眼和右眼的计算算作相同。更多细节可以在[40]中找到。

[40] Accuracy and Precision Test Method for Remote Eye Trackers, Test Specification Version: 2.1.1, Tobii Technology AB, Sweden, Feb. 2011.

2、视线估计算法

视线估计主要有以下算法:

  1. 基于2维回归
  2. 基于3D模型
  3. 基于交叉比(CROSS-RATIO)
  4. 基于外观
  5. 基于眼睛形状

这些算法可以分为两大类:

  1. 基于几何的方法(Geometry Based Methods)
  2. 和基于外观的方法(Appearance Based Methods)两大类。
  • 几何法:检测眼睛的一些特征(例如眼角、瞳孔位置等关键点),然后根据这些特征来计算 gaze。这些方法使用近红外来照明,使用多项式函数或人眼的几何模型来估计视线方向或视线点。二维回归、三维模型和基于交叉比的方法属于这一类
  • 外观法:另一类方法利用可见光和内容信息(如眼睛区域的局部特征、形状、纹理)来估计注视方向,如基于外观和形状的方法

两类方法各有长短:

  • 几何法相对更准确,然而这类方法对图片的质量和分辨率有很高的要求。使用可见光和内容信息(例如眼睛区域的局部特征、形状、纹理)来估计。
  • 外观法对低分辨和高噪声的图像表现更好,但模型的训练需要大量数据。随着深度学习的崛起以及大量数据集的公开,基于外观的方法越来越受到关注。

不同的视线估计算法有不同的特点:

(1)基于2D回归的方法

利用了人眼的特征(如眼睛几何结构、瞳孔轮廓和角膜反射),在硬件上使用单个摄像头和几个近红外LED灯。然而,这种方法容易受到头部运动的影响,需要使用者使用头枕、下巴托或咬合杆保持头部静止。

(2)基于3D模型的方法

3D方法对用户头部移动有一定的容忍度。但是其硬件要求很高,需要多个光源或多个摄像头。

基于3D模型的方法,可以使用单摄像头或者是多摄像头。

  1. 单摄像头:单摄像机系统结构简单,误差最低可以达到0.5°。

  2. 多摄像头:精度更高,同时和容忍头部移动,但需要复杂的系统校准程序,包括三维测量摄像机的校准、LED定位估计和确定监视器的几何特性及其与摄像机的关系。

(3)基于交叉比的方法

此方法不需要构建眼睛模型、硬件校准,并且允许头部自由运动。但容易受到用户距离增大和其他用户方面产生的问题的影响。

  • 工作原理是将近红外光线NIR的矩形图案投射到用户的眼睛上,并利用投影几何的不变性质,来估计视线位置。在电脑屏幕的四个角上的四个led被用来在角膜表面产生闪烁(图5)。

使用两个透视投影,通过闪烁的位置,瞳孔和显示器屏幕的大小,来估计最终的视线。

  • 第一种投影是角膜反射LED灯的虚像
  • 第二种投影是相机投影,即经过角膜反射,最终打在相机成像平面上的图像。

利用这两个投影,得到了与场景和摄像机图像平面相关的一个射影变换。然后求出场景平面上的PoG对摄像机平面上瞳孔中心图像的投影。

(4)基于外观

基于外观模型的算法是非PCCR方法,使用眼睛的形状、纹理属性、瞳孔相对于眼角的位置来估计视线。

  • 这些方法的硬件要求较低,因此适合在没有高分辨率摄像机或附加光源的平台上实现。
  • 缺点是它们的准确度远远低于基于PCCR的方法,这种方法会随着头部运动、光照水平的变化而降低,为了获得稳健的性能,它们需要大型的训练图像数据库。

近年来,人们也提出了基于深度学习(DL)和卷积神经网络(CNN)的视线估计方法,在此不细讲了。

(5)基于形状

硬件设备需求较低,其使用低分辨率网络摄像头,误差在2°左右。然而,这些方法的缺点包括头部姿态和眼睛遮挡问题,因为要去适应变化的眼睛形状,所以计算会比较复杂。

【视线追踪】视线追踪的性能评估框架 及 基础知识相关推荐

  1. Android DRM框架与基础知识

    Android DRM框架与基础知识 Android DRM框架 DRM框架的目的:能让安卓设备可以播放更多的内容,不同的内容和硬件设备可能使用的是不同的内容版权保护机制或者没有版权管理机制,但是安卓 ...

  2. 计算机知识怎么做框架,计算机基础知识框架.ppt

    <计算机基础知识框架.ppt>由会员分享,可在线阅读,更多相关<计算机基础知识框架.ppt(25页珍藏版)>请在装配图网上搜索. 1.计算机基础知识讲座,硬件组成 软件系统 网 ...

  3. 性能测试之前端性能优化(前端基础知识,前端性能测试常用工具,前端性能优化常见方法)

    目录 1. 前端基础知识 1.1 为什么要关注前端页面的性能,了解页面的加载,渲染方式和顺序? 1.2 一次页面请求会经历哪些步骤? 1.3 页面的展示过程 2. 前端性能测试的常用工具 2.1 Go ...

  4. QTP自动化测试框架的基础知识

    1. 什么是自动化测试框架? 假定你有一个活,需要构建许多自动化测试用例来测试这个应用程序.当你对这个应用程序完成自动化测试后,你对自己创建脚本应该有什么期望吗?你难道不想要- 脚本应该按照预期的来执 ...

  5. git flow 命名规范 驼峰_图解ThinkPHP5框架(一):基础知识,开发规范与目录结构

    php中文网最新课程 每日17点准时技术干货分享 基于最新ThinkPHP5.0.8制定,原稿是xmind思维导图制作,如果觉得图片看不太清楚,可以下载xmind源文件,用xmind软件打开. 另外, ...

  6. 前端框架UMI3基础知识和快速上手

    ----- 基础的介绍得是有的: One:   Umi 是什么? Umi,中文可发音为乌米,是可扩展的企业级前端应用框架.Umi 以路由为基础的,同时支持配置式路由和约定式路由,保证路由的功能完备,并 ...

  7. prism在java_Prism 框架应用-基础知识篇

    Prism 框架概念 prism was the code name for the guidance formally known as the Composite Application Guid ...

  8. soot代码分析框架的基础知识(一)

    Class categories class分为三类:argument classes,application classes,library classes argument classes:指的是 ...

  9. FFmpeg框架的基础知识

    ffmpeg是一个非常有用的命令行程序,它可以用来转码媒体文件.它是领先的多媒体框架FFmpeg的一部分,其有很多功能,比如解码.编码.转码.混流.分离.转化为流.过滤以及播放几乎所有的由人和机器创建 ...

  10. 关于TP5.1框架一些基础知识小结

    文章目录 默认入口文件 TP5支持的URL模式 URL大小写问题 响应输出 使用框架类方法读取配置文件注意事项(TP5.1) TP5.1配置文件优先级 Thinkphp概念个人理解 默认入口文件 首先 ...

最新文章

  1. 数据中心节能大法 —— 尽在上海11月中国数据中心展
  2. 电单车拉力赛的调试情况汇集
  3. 工具-eclipse-hibernate关于快速生成*.hbm.xml文件,与bean文件的操作,不使用hibernate tool解决办法之一,主要为了快速开发,写的小工具
  4. SAP Fiori Elements 公开课第二单元学习笔记:Fiori Elements 架构
  5. 人生应该记住的16句话
  6. surging 微服务引擎 1.0 正式发布
  7. (王道408考研操作系统)第二章进程管理-第三节7:经典同步问题之多生产者与多消费者问题
  8. 【九】Jmeter 实现验证码登录
  9. 想象力惊人!只凭一句话,AI就能脑补出动漫小片
  10. HDU4035 Maze 【树形DP】【期望DP】
  11. 面向对象的思考过程 (马特·魏斯费尔德 著)
  12. 现在主流人工智能(AI)方法的本质是什么?
  13. RDO方式安装Openstack Allinone问题记录
  14. Java家庭收支记账软件开发
  15. <Mac>怎么删除Mac启动台里带问号的图标
  16. 蓝天P7xxtm 系列9代最新BIOS
  17. 多目标优化算法之SPEA2
  18. 【UEFI基础】EDK编译生成的二进制的结构
  19. Linux下常用软件安装指南
  20. C++11 学习笔记(持续更新)

热门文章

  1. 那些通宵加班的年轻人
  2. 垃圾分类数据集-8w张图片245个类附赠tensorflow代码
  3. java8 treemap 排序_TreeSet 和TreeMap 排序
  4. Python爬虫实战—笔趣看小说网
  5. DT浪潮下,大数据在交通管理中的应用实践
  6. C语言数组排序——选择排序
  7. 我的世界做计算机运算原理,我的世界加法计算器原理解说及BCD全加器教程
  8. 【script】python 调用阿里云解析 DNS API 实现 DDNS(动态域名解析)
  9. 【Codeforces】A1组刷题记录(50/ 50)完结
  10. 电机控制中空间矢量脉宽调制SVPWM与simulink仿真详解