选自towardsdatascience

作者:Maël Fabien

机器之心编译

参与:高璇、张倩、淑婷

本教程将介绍如何使用 OpenCV 和 Dlib 在 Python 中创建和运行人脸检测算法。同时还将添加一些功能,以同时检测多个面部的眼睛和嘴巴。本文介绍了人脸检测的最基本实现,包括级联分类器、HOG 窗口和深度学习 CNN。

我们将通过以下方法实现人脸检测:

  • 使用 OpenCV 的 Haar 级联分类器

  • 使用 Dlib 的方向梯度直方图

  • 使用 Dlib 的卷积神经网络

本文代码的 Github 库(以及作者其他博客的代码)链接:

https://github.com/maelfabien/Machine_Learning_Tutorials

我们将使用用于计算机视觉的开源库 OpenCV,它用 C/C++编写,有 C++、Python 和 Java 接口。同时支持 Windows、Linux、MacOS、iOS 和 Android 系统。同时我们还需要工具包 Dlib,它是一个包含机器学习算法和创建复杂软件的 C++工具包。

步骤

第一步是安装 OpenCV 和 Dlib。运行以下命令:

pip install opencv-pythonpip install dlib

文件生成的路径如下(版本不同,路径会稍有差别):

/usr/local/lib/python3.7/site-packages/cv2

如果在使用 Dlib 时出现问题,请参见文章:https://www.pyimagesearch.com/2018/01/22/install-dlib-easy-complete-guide/

导入工具包和模型路径

创建一个新的 Jupyter notebook/Python 文件,从以下代码开始:

import cv2import matplotlib.pyplot as pltimport dlibfrom imutils import face_utilsfont = cv2.FONT_HERSHEY_SIMPLEX

级联分类器

首先研究级联分类器。

理论

级联分类器,即使用类 Haar 特征工作的级联增强分类器,是集成学习的一种特殊情况,称为 boost。它通常依赖于 Adaboost 分类器(以及其他模型,如 Real Adaboost、Gentle Adaboost 或 Logitboost)。

级联分类器在包含检测目标的几百个样本图像以及不包含检测目标的其他图像上进行训练。

我们如何检测图上是否有人脸呢?有一种名为 Viola-Jones 的框架的算法,包括了实时人脸检测所需的所有步骤:

  • 提取 Haar 特征,特征来自 Haar 小波

  • 创建图像

  • Adaboost 训练

  • 级联分类器

Haar 特征选择

人脸上最常见的一些共同特征如下:

  • 与脸颊相比,眼部颜色较深

  • 与眼睛相比,鼻梁区域较为明亮

  • 眼睛、嘴巴、鼻子的位置较为固定......

这些特征称为 Haar 特征。过程如下所示:

Haar 特征

在上图中,第一个特征测量眼部和上脸颊之间的强度差异。特征值计算的方法很简单,对黑色区域中的像素求和再减去白色区域中的像素即可。

然后,将这个矩形作为卷积核作用到整个图像。为了不产生遗漏,我们需要用到每个卷积核的所有的维度和位置。简单的 24 * 24 的图像可能会产生超过 160000 个特征,每个特征由像素值的和/差组成。这样在计算上无法实现实时人脸检测。那么,该如何加快这个过程呢?

一旦通过矩形框识别到有用区域,则在与之完全不同的区域上就无需再做计算了。这一点可以通过 Adaboost 实现。

使用积分图像原理计算矩形框特征的方法更快。我们将在下一节介绍这一点。

原始论文中提到几种可用于 Haar 特征提取的矩形框:

  • 双矩形特征计算的是两个矩形区域内像素和的差,主要用于检测边缘 (a,b)

  • 三矩形特征计算的是中心矩形和减去两个外部矩形和的差,主要用于检测线 (c,d)

  • 四矩形特征计算的是矩形对角线对之间的差 (e)

Haar 矩形

特征提取完成后,使用 Adaboost 分类器将它们应用于训练集,该分类器结合了一组弱分类器来创建准确的集成模型。只需 200 个特征(最初是 16 万个),实现了 95%的准确率。该论文的作者提取了 6000 个特征。

积分图像

以卷积核的形式计算特征需要花费很长时间。出于这个原因,作者 Viola 和 Jones 提出了图像的中间表示:积分图像。积分图像的作用是仅使用四个值简单地计算矩形和。我们来看看它是如何工作的!

假设我们想要确定一个坐标为 (x,y) 的给定像素的矩形特征。然后,像素的积分图像是给定像素的上方和左侧的像素之和。

其中 ii(x,y) 是积分图像,i(x,y) 是原始图像。

当计算整个积分图像时,有一种只需要遍历一次原始图像的递归方法。实际上,我们可以定义以下一对递归形式:

其中 s(x,y) 是累积行和,而 s(x−1)=0, ii(−1,y)=0。

这是怎么实现的呢?假设我们想要估算区域 D 的像素总和。我们已经定义了 3 个其他区域:A,B 和 C。

  • 点 1 处的积分图像的值是矩形 A 中的像素的总和。

  • 点 2 处的值为 A + B。

  • 点 3 处的值为 A + C。

  • 点 4 处的值是 A + B + C + D。

因此,区域 D 中的像素之和可以简单地计算为: 4+1−(2+3)。

这样我们仅使用 4 个数组值就计算出了矩形 D 的值。

人们应该知道矩形在实际中是非常简单的特征,但对于人脸检测已经足够了。当涉及复杂问题时,可调滤波器往往更灵活多变。

可调滤波器

使用 Adaboost 学习分类函数

给定一组带标签的训练图像(正负样本均有),Adaboost 用于:

  • 提取一小部分特征

  • 训练分类器

由于 16 万个特征中的大多数特征与之极不相关,因此我们设计一个增强模型的弱学习算法,用来提取单个矩形特征,将最好的正负样本区分开。

级联分类器

虽然上述过程非常有效,但仍存在一个重大问题。在图像中,大部分图像为非面部区域。对图像的每个区域给予等同的注意力是没有意义的,因为我们应该主要关注最有可能包含人脸的区域。Viola 和 Jone 使用级联分类器在减少了计算时间的同时,实现了更高的检测率。

关键思想是在识别人脸区域时排除不含人脸的子窗口。由于任务是正确识别人脸,我们希望假阴率最小,即包含人脸却未被识别的子窗口最少。

每个子窗口都使用一系列分类器。这些分类器是简单的决策树:

  • 如果第一个分类器检测为正样本,继续用第二个

  • 如果第二个分类器检测是正样本,继续用第三个

  • 以此类推

虽然有时可能包含人脸的图被认成负样本被子窗口漏检。但初级分类器以较低的计算成本筛除了大多数负样本,下图的分类器可额外消除更多的负样本,但需要更多的计算量。

使用 Adaboost 训练分类器,并调整阈值使错误率降到最低。在训练该模型时,变量如下:

  • 每个阶段分类器数量

  • 每个阶段的特征数量

  • 每个阶段的阈值

幸运的是,在 OpenCV 中,整个模型已经经过预训练,可直接用于人脸检测。

如果想了解有关 Boosting 技术的更多信息,欢迎查看作者关于 Adaboost 的文章:

https://maelfabien.github.io/machinelearning/adaboost

输入

下一步是找到预训练的权重。我们将使用默认的预训练模型来检测人脸、眼睛和嘴巴。文件应位于此路径(python 版本不同,路径略有不同):

/usr/local/lib/python3.7/site-packages/cv2/data

确定路径后,以此方式声明级联分类器:

cascPath = "/usr/local/lib/python3.7/site-packages/cv2/data/haarcascade_frontalface_default.xml"eyePath = "/usr/local/lib/python3.7/site-packages/cv2/data/haarcascade_eye.xml"smilePath = "/usr/local/lib/python3.7/site-packages/cv2/data/haarcascade_smile.xml"faceCascade = cv2.CascadeClassifier(cascPath)eyeCascade = cv2.CascadeClassifier(eyePath)smileCascade = cv2.CascadeClassifier(smilePath)

检测图像中的人脸

在实现实时人脸检测算法之前,让我们先尝试在图像上简单检测一下。从加载测试图像开始:

# Load the imagegray = cv2.imread('face_detect_test.jpeg', 0)plt.figure(figsize=(12,8))plt.imshow(gray, cmap='gray')plt.show()

测试图像

然后开始检测人脸,并将检测到的人脸框起来。

# Detect facesfaces = faceCascade.detectMultiScale(gray,scaleFactor=1.1,minNeighbors=5,flags=cv2.CASCADE_SCALE_IMAGE)# For each facefor (x, y, w, h) in faces:     # Draw rectangle around the face    cv2.rectangle(gray, (x, y), (x+w, y+h), (255, 255, 255), 3)

以下是 detectMultiScale 函数常见的参数列表:

  • scaleFactor:确定每个图像缩放比例大小。

  • minNeighbors:确定每个候选矩形应保留多少个相邻框。

  • minSize:最小目标的大小。小于该值的目标将被忽略。

  • maxSize:最大目标的大小。大于该值的目标将被忽略。

最后,显示结果:

plt.figure(figsize=(12,8))plt.imshow(gray, cmap='gray')plt.show()

在测试图像上成功检测到人脸。现在开始实时检测!

实时人脸检测

下面继续进行实时人脸检测的 Python 实现。第一步是启动摄像头,并拍摄视频。然后,将图像转换为灰度图。这用于减小输入图像的维数。实际上,我们应用了一个简单的线性变换,而不是每个像素用三个点来描述红、绿、蓝。

这在 OpenCV 中是默认实现的。

video_capture = cv2.VideoCapture(0)while True:    # Capture frame-by-frame    ret, frame = video_capture.read()    gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)

现在我们使用上述定义的 faceCascade 变量,它包含一个预训练算法,现在将其用于灰度图。

faces = faceCascade.detectMultiScale(        gray,        scaleFactor=1.1,        minNeighbors=5,        minSize=(30, 30),        flags=cv2.CASCADE_SCALE_IMAGE        )

对于检测到的每个人脸,都加上一个矩形框:

for (x, y, w, h) in faces:        if w > 250 :            cv2.rectangle(frame, (x, y), (x+w, y+h), (255, 0, 0), 3)            roi_gray = gray[y:y+h, x:x+w]            roi_color = frame[y:y+h, x:x+w]

对于检测到的每张嘴,都加上一个矩形框:

smile = smileCascade.detectMultiScale(        roi_gray,        scaleFactor= 1.16,        minNeighbors=35,        minSize=(25, 25),        flags=cv2.CASCADE_SCALE_IMAGE    )    for (sx, sy, sw, sh) in smile:        cv2.rectangle(roi_color, (sh, sy), (sx+sw, sy+sh), (255, 0, 0), 2)        cv2.putText(frame,'Smile',(x + sx,y + sy), 1, 1, (0, 255, 0), 1)

对于检测到的每双眼睛,都加上一个矩形框:

eyes = eyeCascade.detectMultiScale(roi_gray)    for (ex,ey,ew,eh) in eyes:        cv2.rectangle(roi_color,(ex,ey),(ex+ew,ey+eh),(0,255,0),2)        cv2.putText(frame,'Eye',(x + ex,y + ey), 1, 1, (0, 255, 0), 1)

然后计算人脸总数,显示整体图像:

cv2.putText(frame,'Number of Faces : ' + str(len(faces)),(40, 40), font, 1,(255,0,0),2)          # Display the resulting frame    cv2.imshow('Video', frame)

当按下 q 键时,执行退出选项。

if cv2.waitKey(1) & 0xFF == ord('q'):        break

最后当所有操作完成后,关闭所有窗口。在 Mac 上关闭窗口存在一些问题,可能需要通过活动管理器退出 Python。

video_capture.release()cv2.destroyAllWindows()

封装

import cv2

cascPath = "/usr/local/lib/python3.7/site-packages/cv2/data/haarcascade_frontalface_default.xml"eyePath = "/usr/local/lib/python3.7/site-packages/cv2/data/haarcascade_eye.xml"smilePath = "/usr/local/lib/python3.7/site-packages/cv2/data/haarcascade_smile.xml"

faceCascade = cv2.CascadeClassifier(cascPath)eyeCascade = cv2.CascadeClassifier(eyePath)smileCascade = cv2.CascadeClassifier(smilePath)

font = cv2.FONT_HERSHEY_SIMPLEXvideo_capture = cv2.VideoCapture(0)

while True:    # Capture frame-by-frame    ret, frame = video_capture.read()

    gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)

    faces = faceCascade.detectMultiScale(        gray,        scaleFactor=1.1,        minNeighbors=5,        minSize=(200, 200),        flags=cv2.CASCADE_SCALE_IMAGE    )

    # Draw a rectangle around the faces    for (x, y, w, h) in faces:        cv2.rectangle(frame, (x, y), (x+w, y+h), (255, 0, 0), 3)            roi_gray = gray[y:y+h, x:x+w]            roi_color = frame[y:y+h, x:x+w]            cv2.putText(frame,'Face',(x, y), font, 2,(255,0,0),5)

    smile = smileCascade.detectMultiScale(        roi_gray,        scaleFactor= 1.16,        minNeighbors=35,        minSize=(25, 25),        flags=cv2.CASCADE_SCALE_IMAGE    )

    for (sx, sy, sw, sh) in smile:        cv2.rectangle(roi_color, (sh, sy), (sx+sw, sy+sh), (255, 0, 0), 2)        cv2.putText(frame,'Smile',(x + sx,y + sy), 1, 1, (0, 255, 0), 1)

    eyes = eyeCascade.detectMultiScale(roi_gray)    for (ex,ey,ew,eh) in eyes:        cv2.rectangle(roi_color,(ex,ey),(ex+ew,ey+eh),(0,255,0),2)        cv2.putText(frame,'Eye',(x + ex,y + ey), 1, 1, (0, 255, 0), 1)

    cv2.putText(frame,'Number of Faces : ' + str(len(faces)),(40, 40), font, 1,(255,0,0),2)          # Display the resulting frame    cv2.imshow('Video', frame)

    if cv2.waitKey(1) & 0xFF == ord('q'):      break

# When everything is done, release the capturevideo_capture.release()cv2.destroyAllWindows()

结果

我已经制作了人脸检测算法的 YouTube 视频演示:

Dlib 的方向梯度直方图(HOG)

第二种常用的人脸检测工具由 Dlib 提供,它使用了方向梯度直方图(HOG)的概念。论文《Histograms of Oriented Gradients for Human Detection》实现这一方案。

理论

HOG 背后的想法是将特征提取到一个向量中,并将其输入到分类算法中,例如支持向量机,它将评估人脸(或实际想识别的任何对象)是否存在于某个区域中。

提取的特征是图像梯度(方向梯度)方向的分布(直方图)。梯度通常在边缘和角落周围较大,并允许我们检测这些区域。

在原始论文中,该算法用于人体检测,检测过程如下:

预处理

首先,输入图像必须尺寸相同(可通过裁剪和缩放)。图像长宽比要求为 1:2,因此输入图像的尺寸可能为 64x128 或 100x200。

计算梯度图像

第一步是通过以下卷积核计算图像的水平梯度和垂直梯度:

计算梯度的卷积核

图像的梯度通常会消除非必要信息。

上面图像的梯度可以通过下面的 python 语句找到:

gray = cv2.imread('images/face_detect_test.jpeg', 0)im = np.float32(gray) / 255.0# Calculate gradient gx = cv2.Sobel(im, cv2.CV_32F, 1, 0, ksize=1)gy = cv2.Sobel(im, cv2.CV_32F, 0, 1, ksize=1)mag, angle = cv2.cartToPolar(gx, gy, angleInDegrees=True)

绘制图片:

plt.figure(figsize=(12,8))plt.imshow(mag)plt.show()

我们之前没有预处理图像。

计算 HOG

首先将图像分成 8x8 个单元来提供紧凑表示,使 HOG 对噪声更鲁棒。然后,计算每个单元的 HOG。

为了估计区域内的梯度方向,我们只需在每个区域内的 64 个梯度方向值(8x8)及其大小(另外 64 个值)之间构建直方图。直方图的类别对应梯度的角度,从 0 到 180°。总共 9 类:0°,20°,40°...... 160°。

上面的代码给了我们 2 个信息:

  • 梯度方向

  • 梯度大小

当我们构建 HOG 时,有 3 种情况:

  • 角度小于 160°,且不介于两类之间。在这种情况下,角度将添加到 HOG 的正确类中。

  • 角度小于 160°,恰好在两类之间。在这种情况下,像素被均分到左右两侧类中。

  • 角度大于 160°。在这种情况下,我们认为像素与 160°和 0°成比例。

每个 8x8 单元的 HOG 如下所示:

HOG

模块归一化

最后,可以用 16×16 的模块对图像进行归一化,并使其对光照不变。这可以通过将大小为 8x8 的 HOG 的每个值除以包含它的 16x16 模块的 HOG 的 L2 范数来实现,这个模块实际上是长度为 9*4 = 36 的简单向量。

模块归一化

最后,将所有 36x1 向量连接成一个大向量。OK!现在有了特征向量,我们可以在上面训练一个软 SVM 分类器(C=0.01)。

检测图像上的人脸

实现非常简单:

face_detect = dlib.get_frontal_face_detector()rects = face_detect(gray, 1)for (i, rect) in enumerate(rects):(x, y, w, h) = face_utils.rect_to_bb(rect)    cv2.rectangle(gray, (x, y), (x + w, y + h), (255, 255, 255), 3)

plt.figure(figsize=(12,8))plt.imshow(gray, cmap='gray')plt.show()


实时人脸检测

如前所述,该算法非常容易实现。我们还实现了一个更轻量的版本,只用来识别人脸。Dlib 让人脸关键点的检测更加容易,但这是另一个话题。

video_capture = cv2.VideoCapture(0)flag = 0

while True:

    ret, frame = video_capture.read()

    gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)    rects = face_detect(gray, 1)

    for (i, rect) in enumerate(rects):

        (x, y, w, h) = face_utils.rect_to_bb(rect)

        cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 255, 0), 2)

        cv2.imshow('Video', frame)

    if cv2.waitKey(1) & 0xFF == ord('q'):        break

video_capture.release()cv2.destroyAllWindows()

Dlib 中的卷积神经网络

最后一种方法基于卷积神经网络。为了增强结果,它还实现了最大边缘目标检测(MMOD)。

理论

卷积神经网络是主要用于计算机视觉的前馈神经网络。它们提供自动图像预处理以及密集的神经网络部分。CNN 还是用来处理带有网格状拓扑的数据的特殊神经网络。它的架构灵感来自动物视觉皮层。

以前的方法中,很大一部分工作是选择滤波器来创建特征,以便尽从图像中可能多地提取信息。随着深度学习和计算能力的提高,这项工作现在可以实现自动化。CNN 的名称就来自我们用一组滤波器卷积初始图像输入的事实。需要选择的参数仍是需要应用的滤波器数量以及尺寸。滤波器的尺寸称为步幅。一般步幅设置在 2 到 5 之间。

在这种特定情况下,CNN 的输出是二分类,如果有人脸,则取值 1,否则取 0。

检测图像上的人脸

一些元素在实现中会发生变化。

第一步是下载预训练模型:https://github.com/davisking/dlib-models/blob/master/mmod_human_face_detector.dat.bz2

将下载后的权重放到文件夹中,并定义 dnnDaceDetector:

dnnFaceDetector = dlib.cnn_face_detection_model_v1("mmod_human_face_detector.dat")

然后,与之前做的相同:

rects = dnnFaceDetector(gray, 1)for (i, rect) in enumerate(rects):    x1 = rect.rect.left()    y1 = rect.rect.top()    x2 = rect.rect.right()    y2 = rect.rect.bottom()    # Rectangle around the face    cv2.rectangle(gray, (x1, y1), (x2, y2), (255, 255, 255), 3)plt.figure(figsize=(12,8))plt.imshow(gray, cmap='gray')plt.show()

实时人脸检测

最后,实现实时 CNN 人脸检测:

video_capture = cv2.VideoCapture(0)flag = 0

while True:    # Capture frame-by-frame    ret, frame = video_capture.read()

    gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)    rects = dnnFaceDetector(gray, 1)

    for (i, rect) in enumerate(rects):

        x1 = rect.rect.left()        y1 = rect.rect.top()        x2 = rect.rect.right()        y2 = rect.rect.bottom()

        # Rectangle around the face        cv2.rectangle(frame, (x1, y1), (x2, y2), (0, 255, 0), 2)

    # Display the video output    cv2.imshow('Video', frame)

    # Quit video by typing Q    if cv2.waitKey(1) & 0xFF == ord('q'):        break

video_capture.release()cv2.destroyAllWindows()

如何选择模型

这是一个很难回答的问题,但我们只讨论两个重要指标:

  • 计算时间

  • 准确率

在速度方面,HOG 是最快的算法,其次是 Haar 级联分类器和 CNN。

但是,Dlib 中的 CNN 是准确率最高的算法。HOG 表现也很好,但在识别较小的人脸时会有一些问题。Haar 级联分类器的整体表现与 HOG 相似。

考虑到实时人脸检测的速度,我在个人项目中使用了 HOG。

希望这个关于 OpenCV 和 Dlib 的人脸检测的快速教程能对你有所帮助。

原文链接:https://towardsdatascience.com/a-guide-to-face-detection-in-python-3eab0f6b9fc1

如何用OpenCV在Python中实现人脸检测相关推荐

  1. python 人脸检测_借助摄像头在Python中实现人脸检测

    Python部落(www.freelycode.com)组织翻译, 禁止转载 本文作者是Shantnu Tiwari--曾多年在C/C++的魔爪中饱受折磨,直到他发现了Python--使用起来感觉如呼 ...

  2. 使用网络摄像头在 Python 中进行人脸检测

    本教程是Python 中的人脸识别的后续教程,因此请确保您已经阅读了第一篇文章. 正如第一篇文章中提到的,通过网络摄像头从检测图像中的人脸到检测视频中的人脸非常容易--这正是我们将在本文中详细介绍的内 ...

  3. 使用OpenCV在Python中进行人脸和眼睛检测

    Modules Used: 使用的模块: python-opencv(cv2) python-opencv(cv2) python-opencv(cv2) Opencv(Open source com ...

  4. 【OpenCV图像处理入门学习教程六】基于Python的网络爬虫与OpenCV扩展库中的人脸识别算法比较

    OpenCV图像处理入门学习教程系列,上一篇第五篇:基于背景差分法的视频目标运动侦测 一.网络爬虫简介(Python3) 网络爬虫,大家应该不陌生了.接下来援引一些Jack-Cui在专栏<Pyt ...

  5. 使用Python,OpenCV和Haar级联进行人脸检测——轻量级的人脸检测器

    使用Python,OpenCV和Haar级联进行人脸检测--轻量级的人脸检测器 1. 效果图 2. 原理 2.1 项目结构 2.2 [haarcascade_frontalface_default.x ...

  6. opencv与python学哪一个好_教你如何用OpenCV、Python和深度学习技术对图像和实时视频进行神经风格迁移...

    编者按:在这篇教程中,作者AdrianRosebrock将教你如何用OpenCV.Python和深度学习技术对图像和实时视频进行神经风格迁移. 2015年,Gatsys等人在论文ANeuralAlgo ...

  7. 边缘检测拉普拉斯c语言,如何用 OpenCV、Python 和拉普拉斯算子来计算图片中的模糊量...

    在刚刚过去的这个周末,我坐下来想在 iphoto 中整理这些海量的照片.这不仅仅意味着巨大的工作量,因为我很快注意到一个现象--其中充斥着大量模糊的照片. 主要因为我的摄影技术比较low,Jemma又 ...

  8. 颜色空间以及如何在OpenCV和Python中使用它们

    It may be the era of deep learning and big data, where complex algorithms analyze images by being sh ...

  9. opencv中的人脸检测案例

    案例:人脸检测 利用OpenCV中自己已经训练好的检测器 1 检测流程 1.读取图片,并转换为灰度图像 2.实例化人脸和眼睛检测的分类器对象 # 实例化级联分类器 face_cas = cv.Casc ...

最新文章

  1. docker 部署redis
  2. SQL Server 存储过程的分页
  3. Selenium2+python自动化58-读取Excel数据(xlrd)
  4. RUNOOB python练习题37 对一个序列的数进行排序
  5. java private 命名_java private关键字用法实例
  6. 从零搭建Redis-Scrapy分布式爬虫
  7. HackerOne 公布十大漏洞奖励计划“豪门”
  8. marathon的高可用服务自动发现和负载均衡
  9. WorldFirstClassOnline
  10. 知识点1--认识SSM框架并准备项目
  11. 网络广告行业资料整理
  12. 罗振宇4小时跨年演讲精华版:大环境里的7个行动策略
  13. 1058:求一元二次方程
  14. 还在使用Postman吗?out了兄弟,快来解锁Apifox这款国产化API工具吧
  15. 【Hyper-V】Windows10家庭版安装Hyper-V虚拟机
  16. html垂直居中vertical,利用vertical-align:middle垂直居中
  17. 支付宝技术专家李战斌:安防视频行为分析系统的技术演进及应用场景 | 2018FMI人工智能与大数据高峰论坛(深圳站)
  18. nodejs的下载与安装
  19. 你的英语目前处在什么样的水平?
  20. 信捷8轴焊锡机程序,采用显控触摸屏加XD5-60T10 每个轴的电子齿轮比单独设置,转盘式

热门文章

  1. java类方法不可见_使java方法仅对特定类可见
  2. 本地通过域名访问虚拟机的网站部署方法(Nginx)
  3. java 数组排序论文_Java 7是否对方法Arrays.Sort使用Tim Sort?
  4. endnote初始化数据库支持_5 个免费的在线 SQL 数据库环境,比Navicat 香
  5. android密码dakay,安卓中按钮点击事件onClick的两种实现方式
  6. 将变量区分_【统计学】区分定类、定序、定距、定比变量!
  7. 【CentOS】EOF使用
  8. Oracle数据库修改字段类型
  9. 解决Could not load dynamic library ‘cudnn64_7.dll‘; dlerror cudnn64_7.dll not found
  10. mysql stop很久_mysql的timeout