iOS系统H264视频硬件编解码说明
公司项目原因,接触了一下视频流H264的编解码知识,之前项目使用的是FFMpeg多媒体库,利用CPU做视频的编码和解码,俗称为软编软解。该方法比较通用,但是占用CPU资源,编解码效率不高。一般系统都会提供GPU或者专用处理器来对视频流进行编解码,也就是硬件编码和解码,简称为硬编解码。苹果在iOS 8.0系统之前,没有开放系统的硬件编码解码功能,不过Mac OS系统一直有,被称为Video ToolBox的框架来处理硬件的编码和解码,终于在iOS 8.0后,苹果将该框架引入iOS系统。
由此,开发者便可以在iOS里面,调用Video Toolbox框架提供的接口,来对视频进行硬件编解码的工作,为VOIP视频通话,视频流播放等应用的视频编解码提供了便利。
(PS:按照苹果WWDC2014 513《direct access to media encoding and decoding》的描述,苹果之前提供的AVFoundation框架也使用硬件对视频进行硬编码和解码,但是编码后直接写入文件,解码后直接显示。Video Toolbox框架可以得到编码后的帧结构,也可以得到解码后的原始图像,因此具有更大的灵活性做一些视频图像处理。)
一,VideoToolbox基本数据结构。
Video Toolbox视频编解码前后需要应用的数据结构进行说明。
(1)CVPixelBuffer:编码前和解码后的图像数据结构。
(2)CMTime、CMClock和CMTimebase:时间戳相关。时间以64-bit/32-bit的形式出现。
(3)CMBlockBuffer:编码后,结果图像的数据结构。
(4)CMVideoFormatDescription:图像存储方式,编解码器等格式描述。
(5)CMSampleBuffer:存放编解码前后的视频图像的容器数据结构。
图1.1视频H264编解码前后数据结构示意图
如图1.1所示,编解码前后的视频图像均封装在CMSampleBuffer中,如果是编码后的图像,以CMBlockBuffe方式存储;解码后的图像,以CVPixelBuffer存储。CMSampleBuffer里面还有另外的时间信息CMTime和视频描述信息CMVideoFormatDesc。
二,硬解码使用方法。
通过如图2.1所示的一个典型应用,来说明如何使用硬件解码接口。该应用场景是从网络处传来H264编码后的视频码流,最后显示在手机屏幕上。
图2.1 H264典型应用场景
1,将H264码流转换成解码前的CMSampleBuffer。
由图1.1所示,解码前的CMSampleBuffer = CMTime + FormatDesc + CMBlockBuffer。需要从H264的码流里面提取出以上的三个信息。最后组合成CMSampleBuffer,提供给硬解码接口来进行解码工作。
H264的码流由NALU单元组成,NALU单元包含视频图像数据和H264的参数信息。其中视频图像数据就是CMBlockBuffer,而H264的参数信息则可以组合成FormatDesc。具体来说参数信息包含SPS(Sequence Parameter Set)和PPS(Picture Parameter Set)。图2.2显示一个H264码流的结构。
图2.2 H264码流结构
(1)提取sps和pps生成format description。
a,每个NALU的开始码是0x00 00 01,按照开始码定位NALU。
b,通过类型信息找到sps和pps并提取,开始码后第一个byte的后5位,7代表sps,8代表pps。
c,CMVideoFormatDescriptionCreateFromH264ParameterSets函数来构建CMVideoFormatDescriptionRef。具体代码可以见demo。
(2)提取视频图像数据生成CMBlockBuffer。
a,通过开始码,定位到NALU。
b,确定类型为数据后,将开始码替换成NALU的长度信息(4 Bytes)。
c,CMBlockBufferCreateWithMemoryBlock接口构造CMBlockBufferRef。具体代码可以见demo。
(3)根据需要,生成CMTime信息。(实际测试时,加入time信息后,有不稳定的图像,不加入time信息反而没有,需要进一步研究,这里建议不加入time信息)
根据上述得到CMVideoFormatDescriptionRef、CMBlockBufferRef和可选的时间信息,使用CMSampleBufferCreate接口得到CMSampleBuffer数据这个待解码的原始的数据。见图2.3的H264数据转换示意图。
图2.3 H264码流转换CMSampleBuffer示意图
2,硬件解码图像显示。
硬件解码显示的方式有两种:
(1)通过系统提供的AVSampleBufferDisplayLayer来解码并显示。
AVSampleBufferDisplayLayer是苹果提供的一个专门显示编码后的H264数据的显示层,它是CALayer的子类,因此使用方式和其它CALayer类似。该层内置了硬件解码功能,将原始的CMSampleBuffer解码后的图像直接显示在屏幕上面,非常的简单方便。图2.4显示了这一解码过程。
图2.4 AVSampleBufferDisplayLayer硬解压后显示图像
显示的接口为[_avslayer enqueueSampleBuffer:sampleBuffer];
(2)通过VTDecompression接口来,将CMSampleBuffer解码成图像,将图像通过UIImageView或者OpenGL上显示。
a,初始化VTDecompressionSession,设置解码器的相关信息。初始化信息需要CMSampleBuffer里面的FormatDescription,以及设置解码后图像的存储方式。demo里面设置的CGBitmap模式,使用RGB方式存放。编码后的图像经过解码后,会调用一个回调函数,将解码后的图像交个这个回调函数来进一步处理。我们就在这个回调里面,将解码后的图像发给control来显示,初始化的时候要将回调指针作为参数传给create接口函数。最后使用create接口对session来进行初始化。
b,a中所述的回调函数可以完成CGBitmap图像转换成UIImage图像的处理,将图像通过队列发送到Control来进行显示处理。
c,调用VTDecompresSessionDecodeFrame接口进行解码操作。解码后的图像会交由a,b步骤设置的回调函数,来进一步的处理。
图2.5显示来硬解码的过程步骤。
图2.5 VTDecompression硬解码过程示意图
三,硬编码使用方法。
硬编码的使用也通过一个典型的应用场景来描述。首先,通过摄像头来采集图像,然后将采集到的图像,通过硬编码的方式进行编码,最后编码后的数据将其组合成H264的码流通过网络传播。
1,摄像头采集数据。
摄像头采集,iOS系统提供了AVCaptureSession来采集摄像头的图像数据。设定好session的采集解析度。再设定好input和output即可。output设定的时候,需要设置delegate和输出队列。在delegate方法,处理采集好的图像。
注意,需要说明的是,图像输出的格式,是未编码的CMSampleBuffer形式。
2,使用VTCompressionSession进行硬编码。
(1)初始化VTCompressionSession。
VTCompressionSession初始化的时候,一般需要给出width宽,height长,编码器类型kCMVideoCodecType_H264等。然后通过调用VTSessionSetProperty接口设置帧率等属性,demo里面提供了一些设置参考,测试的时候发现几乎没有什么影响,可能需要进一步调试。最后需要设定一个回调函数,这个回调是视频图像编码成功后调用。全部准备好后,使用VTCompressionSessionCreate创建session。
(2)提取摄像头采集的原始图像数据给VTCompressionSession来硬编码。
摄像头采集后的图像是未编码的CMSampleBuffer形式,利用给定的接口函数CMSampleBufferGetImageBuffer从中提取出CVPixelBufferRef,使用硬编码接口VTCompressionSessionEncodeFrame来对该帧进行硬编码,编码成功后,会自动调用session初始化时设置的回调函数。
(3)利用回调函数,将因编码成功的CMSampleBuffer转换成H264码流,通过网络传播。
基本上是硬解码的一个逆过程。解析出参数集SPS和PPS,加上开始码后组装成NALU。提取出视频数据,将长度码转换成开始码,组长成NALU。将NALU发送出去。
图2.6显示了整个硬编码的处理逻辑。
图2.6硬编码处理流程示意图
四,硬编解码的一些编码说明。
由于Video Toolbox是基础的core Foundation库函数,C语言写成,和使用core Foundation所有的其它功能一样需要适应,记得Github有个同志,将其改成了OC语言能方便调用的模式,但是地址忘了,以后有缘找到,就会提供下链接。
Demo : https://github.com/shaobo8910/iOS-h264Hw-Toolbox
iOS系统H264视频硬件编解码说明相关推荐
- iOS8系统H264视频硬件编解码说明
iOS8系统H264视频硬件编解码说明 转载自:http://www.tallmantech.com/archives/206#more-206 公司项目原因,接触了一下视频流H264的编解码知识,之 ...
- 嵌入式Linux下基于FFmpeg的视频硬件编解码[图]
转自:http://tech.c114.net/167/a674033.html 摘要: 对FFmpeg多媒体解决方案中的视频编解码流程进行研究.结合对S3C6410处理器视频硬件编解码方法的分析,阐 ...
- 嵌入式Linux下基于FFmpeg的视频硬件编解码
嵌入式Linux下基于FFmpeg的视频硬件编解码[图] http://www.c114.net ( 2012/3/1 15:41 ) 摘要: 对FFmpeg多媒体解决方案中的视频编解码流程进行研究. ...
- (推荐阅读)H264, H265硬件编解码基础及码流分析
需求 在移动端做音视频开发不同于基本的UI业务逻辑工作,音视频开发需要你懂得音视频中一些基本概念,针对编解码而言,我们必须提前懂得编解码器的一些特性,码流的结构,码流中一些重要信息如sps,pps,v ...
- 硬件编解码,软件编解码,H.263、H.264、H.265/HEVC概念
概念 硬件编解码通常称为硬编码硬解码,软件编解码称为软编码软解码. 软编码软解码主要依赖的是CPU资源,设备普通使用也是使用CPU做计算,所以开始编解码视频的时候CPU会飙升起来,发热就无法避免. 硬 ...
- RK-MPP硬件编解码库介绍和使用
一.下载RK-MPP硬件编解码库 下载链接:https://github.com/rockchip-linux/mpp 二.RK-MPP库介绍 1.资料来源:MPP 开发参考.pdf ...
- Adroid新增硬件编解码
背景 瑞芯微和全志的平台 硬解的视频codec为H264 修改方法 1. 硬件编码 修改文件MediaCodecVideoEncoder.java(1)文件新增全志和瑞芯微的硬件编解码 //全志 p ...
- 硬件编解码(一)硬件编解码介绍
硬件编解码介绍 音视频编解码的两种方式 对视频数据编解码一般有两种方式: 1.软件的方式.使用常规的x264.x265等软件编解码器对数据进行处理,优点是灵活,可以根据需要进行定制,缺点是速度比较慢 ...
- 【FFmpeg在Intel GPU上的硬件编解码实现】
用于记录Intel CPU开发qsv硬件解码过程中遇到的一些问题及解决方案 以下文章是在开发过程中参考的比较有意义的文章,供大家学习和参考~~ https://zhuanlan.zhihu.com/p ...
最新文章
- 计算机专业今后的发展方向
- python和R对dataframe的单列数据进行统计:value_counts、table、unique、nunique、min、max、mean、sort、length、var、quantile、
- 当物联网实时工作时,城市才是“智能”的
- android app电量分析,如何计算android app的耗电量?
- python turtle基本语法_Python 基础语法-turtle篇
- python培训费用-Python培训费用得多少?
- seaJS简介和完整实例
- Angular应用里使用HTTP服务的一个具体例子
- 查看oracle归档大小,ORACLE RAC按实例统计每天归档日志大小
- P3800 Power收集
- 怎么使用systemctl启动rabbitmq_光纤激光切割机已经很久没有使用了。再次重新启动它,该怎么办?...
- android u盘加载_如何获取Android系统挂载U盘的路径
- VGG19图像风格迁移
- 二层交换机实现不同vlan通信
- 推荐一个在线办公协作的
- Blend 混合模式
- happen before 原则
- 微信app支付服务端开发记录
- 散列函数(哈希函数,Hash Function)
- 阿里巴巴面试java研发工程师实录
热门文章
- 安装竹木纤维集成墙面需要注意哪些问题?
- js-xlsx 读取和导出excel实现前端 Excel 导出(支持多 sheet)
- ChatGPT来了,软件测试工程师距离失业还远吗?
- java 保存数据_java数据存储
- CB在Windows系统中程序输出中文时出现乱码
- 高薪工作有哪些,转行it薪资能拿多少?
- BSTR、LPSTR、LPWSTR、CString、VARIANT、COleVariant 、_variant_t、CComBSTR、_bstr_t
- Linux 看懂top命令
- ip网络广播系统服务器,【IP网络音频系统服务器主机(IP网络广播服务器)】 - 太平洋安防网...
- 10-30 H5第一次课 品牌墙