近几年随着移动设备硬件设备越来越优各种美颜相机App应运而生,美颜、瘦脸、添加挂件等等一系列的功能,这其中的原理一定离不开一个关键的技术,那就是人脸识别

一般的检测流程

(1) 人脸检测

检测图片中是否有人脸,或者有多少个人脸,同时会给出人脸的位置信息

(2) 人脸关键点检测

第一步我们找出来图中是否有人脸的信息,然后通过人脸的位置,与图片信息,获取人脸的关键点

(3) 处理信息

通过关键点,来做一些你需要的东西

扫盲:什么是关键点

我们来看一张图

这张图通过 68 个点描述了人脸的轮廓,这 68 个点 就是关键点,也有 5 个点的关键点和其他的规格;

人脸检测

今天我们来通过iOS系统本身的AVFoundation 框架 来检测视频流中出现的人脸,并把检测出来的框绘制到视频流中,我们先看一下效果是什么样子的

Mars 可能太酷 都检测不到!

原料

AVFoundation

opencv2.framework 下载opencv2

ps:opencv 有的库带有iOS 用的一些方法 有的版本不带,我忘记了 大家自行下载查阅,没有的话也可以自己写方法,主要是做转换用的,你的controller的.m文件要换成.mm#import "ViewController.h"

#import

#import

#import

#import

#import

@interface ViewController ()

@property (nonatomic,strong) AVCaptureSession *session;

@property (nonatomic,strong) UIImageView *cameraView;

@property (nonatomic,strong) dispatch_queue_t sample;

@property (nonatomic,strong) dispatch_queue_t faceQueue;

@property (nonatomic,copy) NSArray *currentMetadata; //?

@end

@implementation ViewController

- (void)viewDidLoad {

[super viewDidLoad];

_currentMetadata = [NSMutableArray arrayWithCapacity:0];

[self.view addSubview: self.cameraView];

_sample = dispatch_queue_create("sample", NULL);

_faceQueue = dispatch_queue_create("face", NULL);

NSArray *devices = [AVCaptureDevice devicesWithMediaType:AVMediaTypeVideo];

AVCaptureDevice *deviceF;

for (AVCaptureDevice *device in devices )

{

if ( device.position == AVCaptureDevicePositionFront )

{

deviceF = device;

break;

}

}

AVCaptureDeviceInput*input = [[AVCaptureDeviceInput alloc] initWithDevice:deviceF error:nil];

AVCaptureVideoDataOutput *output = [[AVCaptureVideoDataOutput alloc] init];

[output setSampleBufferDelegate:self queue:_sample];

AVCaptureMetadataOutput *metaout = [[AVCaptureMetadataOutput alloc] init];

[metaout setMetadataObjectsDelegate:self queue:_faceQueue];

self.session = [[AVCaptureSession alloc] init];

[self.session beginConfiguration];

if ([self.session canAddInput:input]) {

[self.session addInput:input];

}

if ([self.session canSetSessionPreset:AVCaptureSessionPreset640x480]) {

[self.session setSessionPreset:AVCaptureSessionPreset640x480];

}

if ([self.session canAddOutput:output]) {

[self.session addOutput:output];

}

if ([self.session canAddOutput:metaout]) {

[self.session addOutput:metaout];

}

[self.session commitConfiguration];

NSString     *key           = (NSString *)kCVPixelBufferPixelFormatTypeKey;

NSNumber     *value         = [NSNumber numberWithUnsignedInt:kCVPixelFormatType_32BGRA];

NSDictionary *videoSettings = [NSDictionary dictionaryWithObject:value forKey:key];

[output setVideoSettings:videoSettings];

//这里 我们告诉要检测到人脸 就给我一些反应,里面还有QRCode 等 都可以放进去,就是 如果视频流检测到了你要的 就会出发下面第二个代理方法

[metaout setMetadataObjectTypes:@[AVMetadataObjectTypeFace]];

AVCaptureSession* session = (AVCaptureSession *)self.session;

//前置摄像头一定要设置一下 要不然画面是镜像

for (AVCaptureVideoDataOutput* output in session.outputs) {

for (AVCaptureConnection * av in output.connections) {

//判断是否是前置摄像头状态

if (av.supportsVideoMirroring) {

//镜像设置

av.videoOrientation = AVCaptureVideoOrientationPortrait;

av.videoMirrored = YES;

}

}

}

[self.session startRunning];

}

#pragma mark - AVCaptureSession Delegate -

- (void)captureOutput:(AVCaptureOutput *)output didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection

{

NSMutableArray *bounds = [NSMutableArray arrayWithCapacity:0];

//每一帧,我们都看一下  self.currentMetadata 里面有没有东西,然后将里面的

//AVMetadataFaceObject 转换成  AVMetadataObject,其中AVMetadataObject 的bouns 就是人脸的位置 ,我们将bouns 存到数组中

for (AVMetadataFaceObject *faceobject in self.currentMetadata) {

AVMetadataObject *face = [output transformedMetadataObjectForMetadataObject:faceobject connection:connection];

[bounds addObject:[NSValue valueWithCGRect:face.bounds]];

}

}

- (void)captureOutput:(AVCaptureOutput *)output didOutputMetadataObjects:(NSArray<__kindof> *)metadataObjects fromConnection:(AVCaptureConnection *)connection

{

//当检测到了人脸会走这个回调

_currentMetadata = metadataObjects;

}

- (UIImage*)imageFromPixelBuffer:(CMSampleBufferRef)p {

CVImageBufferRef buffer;

buffer = CMSampleBufferGetImageBuffer(p);

CVPixelBufferLockBaseAddress(buffer, 0);

uint8_t *base;

size_t width, height, bytesPerRow;

base = (uint8_t *)CVPixelBufferGetBaseAddress(buffer);

width = CVPixelBufferGetWidth(buffer);

height = CVPixelBufferGetHeight(buffer);

bytesPerRow = CVPixelBufferGetBytesPerRow(buffer);

CGColorSpaceRef colorSpace;

CGContextRef cgContext;

colorSpace = CGColorSpaceCreateDeviceRGB();

cgContext = CGBitmapContextCreate(base, width, height, 8, bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);

CGColorSpaceRelease(colorSpace);

CGImageRef cgImage;

UIImage *image;

cgImage = CGBitmapContextCreateImage(cgContext);

image = [UIImage imageWithCGImage:cgImage];

CGImageRelease(cgImage);

CGContextRelease(cgContext);

CVPixelBufferUnlockBaseAddress(buffer, 0);

return image;

}

- (UIImageView *)cameraView

{

if (!_cameraView) {

_cameraView = [[UIImageView alloc] initWithFrame:self.view.bounds];

//不拉伸

_cameraView.contentMode = UIViewContentModeScaleAspectFill;

}

return _cameraView;

}

注意的地方

1.output的设置一定在添加之后

2.info.plist 要设置相机权限 Privacy - Camera Usage Description

现在我们视频流拿到了 但是还没有显示出来,下面我们会通过opencv 将人脸框绘制在视频流上,并通过UIImageView 将 处理后的图像显示出来

将人脸框绘制到显示的视频流上

(1). 转换

我们先写一个方法 将CMSampleBufferRef 转换成 UIImage(其实也可以直接CMSampleBufferRef 转换成cv::Mat)- (UIImage*)imageFromPixelBuffer:(CMSampleBufferRef)p {

CVImageBufferRef buffer;

buffer = CMSampleBufferGetImageBuffer(p);

CVPixelBufferLockBaseAddress(buffer, 0);

uint8_t *base;

size_t width, height, bytesPerRow;

base = (uint8_t *)CVPixelBufferGetBaseAddress(buffer);

width = CVPixelBufferGetWidth(buffer);

height = CVPixelBufferGetHeight(buffer);

bytesPerRow = CVPixelBufferGetBytesPerRow(buffer);

CGColorSpaceRef colorSpace;

CGContextRef cgContext;

colorSpace = CGColorSpaceCreateDeviceRGB();

cgContext = CGBitmapContextCreate(base, width, height, 8, bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);

CGColorSpaceRelease(colorSpace);

CGImageRef cgImage;

UIImage *image;

cgImage = CGBitmapContextCreateImage(cgContext);

image = [UIImage imageWithCGImage:cgImage];

CGImageRelease(cgImage);

CGContextRelease(cgContext);

CVPixelBufferUnlockBaseAddress(buffer, 0);

return image;

}

(2).绘制

我们在继续在 AVCaptureVideoDataOutputSampleBufferDelegate 去处理视频流,已经可以拿到 有关人脸的信息了 我们直接绘制上去就可以了- (void)captureOutput:(AVCaptureOutput *)output didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection

{

NSMutableArray *bounds = [NSMutableArray arrayWithCapacity:0];

for (AVMetadataFaceObject *faceobject in self.currentMetadata) {

AVMetadataObject *face = [output transformedMetadataObjectForMetadataObject:faceobject connection:connection];

[bounds addObject:[NSValue valueWithCGRect:face.bounds]];

}

//转换成UIImage

UIImage *image = [self imageFromPixelBuffer:sampleBuffer];

cv::Mat mat;

//转换成cv::Mat

UIImageToMat(image, mat);

for (NSValue *rect in bounds) {

CGRect r = [rect CGRectValue];

//画框

cv::rectangle(mat, cv::Rect(r.origin.x,r.origin.y,r.size.width,r.size.height), cv::Scalar(255,0,0,1));

}

//这里不考虑性能 直接怼Image

dispatch_async(dispatch_get_main_queue(), ^{

self.cameraView.image = MatToUIImage(mat);

});

}

忘记一个东西 依赖库 大家别忘记 点一波

ios识别人脸自动拍照_iOS 相机流人脸识别(一)-人脸框检测(基于iOS原生)相关推荐

  1. ios识别人脸自动拍照_求助,使用APP开发自动拍照及标记脸部,可以付费

    自动拍照并标记需求说明: 背景:由于需要做一个人脸识别功能,需要打开摄像头自动拍照,并且用方框标记出人脸的位置,采用uni app后发现目前还不支持这个功能,需要开发第三方插件.人脸识别的功能类似与钉 ...

  2. ios识别人脸自动拍照_iOS12人脸识别测颜值捷径安装使用教程 iPhone怎么测颜值

    iPhone怎么测颜值?要实现这个功能,以往我们一般需要借助一些相机APP或在线工具来实现,不过今天小编发现了一个很有意思的捷径,通过"人脸识别测颜值"捷径,可以一键人脸识别测照片 ...

  3. 使用OpenCV进行人脸识别和自动拍照

    为了满足人们不同的需求,市面上出现了各种各样的APP,随着这些年移动互联网的发展,我想再也没有人能有精力或者有必要去统计出所有应用的个数了吧.当无数种具有个性的产品百花齐放时,一些共性的需求也逐渐被人 ...

  4. ios识别人脸自动拍照_真的逆天?iOS 10相册识别人脸的秘密

    在今年的WWDC大会上,苹果正式发布了iOS 10系统,虽然其中诸多"新特性"我们早已在安卓系统中见识过了,但作为苹果用户依旧还是非常期待这些细节上的变化.根据大会上的演示,在iO ...

  5. ios识别人脸自动拍照_面部识别是否会自动拍照上传?

    谷歌,苹果,微软三家的原生应用是肯定不会的,因为这么做成本太高了. 理论上不越狱的IOS下的摄像头权限管理不会发生这种事,可是呢,IOS下不越狱也能从网页直接安装APP,而且也不是说IOS牢不可破有人 ...

  6. ubuntu端opencv人脸检测,并实现自动拍照,录视频

    现在在做毕业设计,打算用树莓派做一个监控,实现人脸检测后拍照,并录取一段30S的视频,然后继续进行人脸检测. 本次教程我们由浅入深,先讲解人脸检测部分代码. 注意:如果您有linux上opencv开发 ...

  7. oak深度相机入门教程-识别车道线

      系列文章目录: oak深度相机入门教程-识别眼睛的凝视方向 oak深度相机入门教程-检测是否佩戴口罩 oak深度相机入门教程-文本检测+光学字符识别(OCR)管道 oak深度相机入门教程-识别人的 ...

  8. oak深度相机入门教程-识别头部的姿势

     系列文章目录: oak深度相机入门教程-识别眼睛的凝视方向 oak深度相机入门教程-检测是否佩戴口罩 oak深度相机入门教程-文本检测+光学字符识别(OCR)管道 oak深度相机入门教程-识别人的年 ...

  9. oak深度相机入门教程-识别车辆车牌

      系列文章目录: oak深度相机入门教程-识别眼睛的凝视方向 oak深度相机入门教程-检测是否佩戴口罩 oak深度相机入门教程-文本检测+光学字符识别(OCR)管道 oak深度相机入门教程-识别人的 ...

  10. 基于iOS的网络音视频实时传输系统(一)- 前言

    演示图 (由于GIF大小限制,图做得比较模糊和不太流畅,实际的效果是不错的,可以自己下下来实际跑一下) client端: server端: 下载 GitHub: client 端:https://gi ...

最新文章

  1. 三维点云课程第一章:应用
  2. 从iOS证书申请到签名文件生成
  3. PCE:南农沈其荣团队根系分泌物驱动土壤-微生物-养分之间的反馈作用以响应植物的生长...
  4. html三列布局中间固定,常见的三列布局(左右固定宽度,中间自适应)
  5. linux中用截取一些信息,Linux如何使用cut命令截取文件信息
  6. JSON.stringify() 格式化 输出log
  7. Verilog功能模块——降采样
  8. linux shell字符串及字符串长度获取方式
  9. apk闪退_你家的电视盒子总是闪退?别砸,问题都在这了!
  10. 2017年苹果公司开发者账号申请-公司邓白氏编码
  11. 数据结构与算法一篇帮助你吃下KMP算法
  12. 《让僵冷的翅膀飞起来》系列之五——从容自若的CTO
  13. 投资大鳄摩根士丹利成Accellion FTA 服务器被黑事件的又一个受害者
  14. Linux 命令(11)—— col 命令
  15. 【opencv】左右两张图片实现全景拼接
  16. python制作u盘病毒_只需十行代码,人人都可以用python实现USB病毒
  17. lte网络测试用什么软件,LTE_测试软件使用教程.doc
  18. MATLAB 粒子群算法,例题与常用模版
  19. 弘辽科技:新品直通车怎么选词?怎样测试人群标签?
  20. linux配置静态ip命令,Linux设置静态IP地址

热门文章

  1. Unity3D中Grid Layout Group组件一键实现自动排版Image
  2. MPI/DP转以太网通过CHNet-S7200/300连接IFIX组态TCP通信
  3. IT牛人---3IE工程师的传奇
  4. 深入理解c语言运算符优先级
  5. C#进行注册表项和键值操作
  6. CMSIS-RTOS手册
  7. 使用 HTML、CSS 和 JS 制作一个中国象棋
  8. windows/ubuntu系统下安装teamview教程
  9. 威纶通触摸屏上传错误_威纶通触摸屏程序怎么上传?
  10. 致远项目管理SPM系统案例:中建二局项目管理系统