FFmpeg连载2-分离视频和音频
前言
前面我们搭建好了FFmpeg的开发环境,今天我们就来小试牛刀,使用FFmpeg库对mp4文件进行解封装,提取mp4中的视频流和音频流输出到单独的输出文件中。
关于FFmpeg开发环境搭建可以看我之前的文章:FFmpeg连载1-开发环境搭建
所谓的分离视频和音频是我们通俗的说法,官方的说法叫解封装。与解封装对应的叫封装或复用器,也就是将多个视频流或音频流合并成一个多媒体文件就叫封装。
API及数据结构介绍
在FFmpeg中解封装的大致流程如下图所示:
在这里需要注意的一个点是av_find_best_stream
不一定能获取到你想要的流,比如你想通过av_find_best_stream
获取音频流的索引,笔者开发中发现对于某些格式是无法获取成功的,
此时需要遍历一下解封装上下文的流,通过流的解码器类型来进行获取,例如你想要获取音频流,则可以判断解码器的类型是否是音频解码器即可。
下面介绍一下实现分离视频和音频数据所需要使用到的主要API以及相关的数据结构。
1、libavformat
libavformat库,是FFmpeg中用于处理各种媒体容器格式的库,它描述了一个媒体文件或媒体流的构成和基本信息,它的两个主要功能就是封装和解封装,可以说它是贯穿整个FFmpeg的根。
在解封装时,我们主要用到avformat中的几个函数avformat_alloc_context
、avformat_open_input
和avformat_close_input
,其中avformat_open_input
和avformat_close_input
是
一对搭配使用的函数,一个打开一个关闭,千万不要忘记avformat_close_input
,否则会发生内存泄漏。
2、AVPacket
AVPacket类,用于存储编码后的帧数据。它一般由解封装导出,然后传递给解码器作为输入;又或者,从编码器作为输出,然后传递给封装去进行写入。
AVPacket可以表示一个视频包或者一个音频包,内部包含了这个视频包或音频包的播放时长,播放时间戳、二进制数据等相关信息。对于音视频等二进制数据,AVPacket内部使用了引用计数的方式进行数据共享。
对于AVPacket的那个字段,我们点进去头文件可以看到每个字段都有清晰的注释解析,这里就不细说了,例如:
typedef struct AVPacket {/*** A reference to the reference-counted buffer where the packet data is* stored.* May be NULL, then the packet data is not reference-counted.*/AVBufferRef *buf;/*** Presentation timestamp in AVStream->time_base units; the time at which* the decompressed packet will be presented to the user.* Can be AV_NOPTS_VALUE if it is not stored in the file.* pts MUST be larger or equal to dts as presentation cannot happen before* decompression, unless one wants to view hex dumps. Some formats misuse* the terms dts and pts/cts to mean something different. Such timestamps* must be converted to true pts/dts before they are stored in AVPacket.*/int64_t pts;/*** Decompression timestamp in AVStream->time_base units; the time at which* the packet is decompressed.* Can be AV_NOPTS_VALUE if it is not stored in the file.*/int64_t dts;uint8_t *data;int size;int stream_index;/*** A combination of AV_PKT_FLAG values*/int flags;/*** Additional packet data that can be provided by the container.* Packet can contain several types of side information.*/AVPacketSideData *side_data;int side_data_elems;/*** Duration of this packet in AVStream->time_base units, 0 if unknown.* Equals next_pts - this_pts in presentation order.*/int64_t duration;int64_t pos; ///< byte position in stream, -1 if unknown/*** for some private data of the user*/void *opaque;/*** AVBufferRef for free use by the API user. FFmpeg will never check the* contents of the buffer ref. FFmpeg calls av_buffer_unref() on it when* the packet is unreferenced. av_packet_copy_props() calls create a new* reference with av_buffer_ref() for the target packet's opaque_ref field.** This is unrelated to the opaque field, although it serves a similar* purpose.*/AVBufferRef *opaque_ref;/*** Time base of the packet's timestamps.* In the future, this field may be set on packets output by encoders or* demuxers, but its value will be by default ignored on input to decoders* or muxers.*/AVRational time_base;
} AVPacket;
下面是使用FFmpeg进行解封装的主要API调用:
avformat_alloc_context #封装结构体分配内存 // 可以不调用,avformat_open_input会判断入参是否为NULL,自行分配
avformat_open_input #打开输入文件用于读取数据
av_find_best_stream#获取流信息
针对每个stream处理- pFormatContext->nb_streams- avcodec_find_decoder #根据流中的编码参数AVCodecParameters,查找是否支持该编码- 判断流的类型 pLocalCodecParameters->codec_type- 保存AVCodecParameters和AVCodec,用于后续处理av_read_frame #读取一包AVPacket数据包
提取视频
在FFMpeg中一般mp4解封装提取到的H264裸流是不带start code的,也就是提取到的这种H264裸流不能使用ffplay直接播放,还好FFmpeg很贴心地给我们提供了一个h264_mp4toannexb
过滤器,通过这个过滤器我们可以很方便地
给提取到的H264加上start code,从而能让ffplay直接播放。
废话少说,直接上代码:
AVFormatContext *avFormatContext = nullptr;
AVPacket *avPacket = nullptr;
AVFrame *avFrame = nullptr;
FILE *h264_out = nullptr;
FILE *audio_out = nullptr;AVBSFContext *bsf_ctx = nullptr;void init_h264_mp4toannexb(AVCodecParameters *avCodecParameters) {if (nullptr == bsf_ctx) {const AVBitStreamFilter *bsfilter = av_bsf_get_by_name("h264_mp4toannexb");// 2 初始化过滤器上下文av_bsf_alloc(bsfilter, &bsf_ctx); //AVBSFContext;// 3 添加解码器属性avcodec_parameters_copy(bsf_ctx->par_in, avCodecParameters);av_bsf_init(bsf_ctx);}
}void MediaDeMuxerCore::de_muxer_video(std::string media_path, std::string out_video_path) {// 分配上下文avFormatContext = avformat_alloc_context();// 打开输入文件avformat_open_input(&avFormatContext, media_path.c_str(), nullptr, nullptr);// 获取视频流索引int video_index = av_find_best_stream(avFormatContext, AVMEDIA_TYPE_VIDEO, -1, -1, nullptr, 0);if (video_index < 0) {std::cout << "没有找到视频流" << std::endl;} else {// 打印媒体信息av_dump_format(avFormatContext, 0, media_path.c_str(), 0);h264_out = fopen(out_video_path.c_str(), "wb");AVStream *video_stream = avFormatContext->streams[video_index];avPacket = av_packet_alloc();av_init_packet(avPacket);while (true) {int rect = av_read_frame(avFormatContext, avPacket);if (rect < 0) {std::cout << "视频流读取完毕" << std::endl;break;} else if (video_index == avPacket->stream_index) { // 只需要视频的std::cout << "写入视频size:" << avPacket->size << std::endl;// 这里需要注意一下,一般的mp4读出来的的packet是不带start code的,需要手动加上,如果是ts的话则是带上了start code的// 初始化过滤器,如果本身就是带了start code的调这个也没事,不会重复添加init_h264_mp4toannexb(video_stream->codecpar);if (av_bsf_send_packet(bsf_ctx, avPacket) != 0) {av_packet_unref(avPacket); // 减少引用计数continue; // 需要更多的包}av_packet_unref(avPacket); // 减少引用计数while (av_bsf_receive_packet(bsf_ctx, avPacket) == 0) {// printf("fwrite size:%d\n", pkt->size);size_t size = fwrite(avPacket->data, 1, avPacket->size, h264_out);av_packet_unref(avPacket); //减少引用计数}} else {av_packet_unref(avPacket); //减少引用计数}}// 刷fflush(h264_out);}avformat_close_input(&avFormatContext);
}
提取音频
对于FFmpeg中解封装的音频AAC文件来说,mp4文件解封装出来的音频不附带adts头信息的,但是笔者看到有资料说对于ts格式的话好像解封装出来又是带有adts头的(笔者这个没有验证过)。
对于这些没有附带adts头信息的aac音频文件,ffplay也是无法直接播放的,因此我们在提取音频信息时需要手动加上adts头信息。
针对添加adts头信息的话我们有两种方式,一种是对对adts比较熟悉的,可以在每个音频包的前面增加7个或者9个字节即可。还有一种就是使用FFmpeg的复用器封装功能,让其自动加上adts头信息。
其中使用FFmpeg内部复用器封装的步骤如下:
1、调用 av_guess_format 让ffmpeg帮你找到一个合适的文件格式。
2、调用 avformat_new_stream 为输出文件创建一个新流。
3、调用 avio_open 打开新创建的文件。
4、调用 avformat_write_header 写文件头。
5、调用 av_interleaved_write_frame 写文件内容。
6、调用 av_write_trailer 写文件尾。
7、调用 avio_close 关闭文件
后面的代码笔者两种方式都简单测试了一下,提取到的aac音频文件都可以正常播放。
下面贴一下全部代码:
MediaDeMuxerCore.h#include <iostream>class MediaDeMuxerCore {public:MediaDeMuxerCore();~MediaDeMuxerCore();// 提取视频 h264裸流void de_muxer_video(std::string media_path,std::string out_video_path);// 提取音频 例如aac流void de_muxer_audio(std::string media_path,std::string out_audio_path);// 使用容器封装的方式提取aac流void de_muxer_audio_by_stream(std::string media_path,std::string out_audio_path);private:};
MediaDeMuxerCore.cpp#include "MediaDeMuxerCore.h"extern "C" {
#include <libavcodec/avcodec.h>
#include <libavutil/avutil.h>
#include <libavformat/avformat.h>
#include <libavcodec/bsf.h>
}MediaDeMuxerCore::MediaDeMuxerCore() {}AVFormatContext *avFormatContext = nullptr;
AVPacket *avPacket = nullptr;
AVFrame *avFrame = nullptr;
FILE *h264_out = nullptr;
FILE *audio_out = nullptr;AVBSFContext *bsf_ctx = nullptr;void init_h264_mp4toannexb(AVCodecParameters *avCodecParameters) {if (nullptr == bsf_ctx) {const AVBitStreamFilter *bsfilter = av_bsf_get_by_name("h264_mp4toannexb");// 2 初始化过滤器上下文av_bsf_alloc(bsfilter, &bsf_ctx); //AVBSFContext;// 3 添加解码器属性avcodec_parameters_copy(bsf_ctx->par_in, avCodecParameters);av_bsf_init(bsf_ctx);}
}void MediaDeMuxerCore::de_muxer_video(std::string media_path, std::string out_video_path) {// 分配上下文avFormatContext = avformat_alloc_context();// 打开输入文件avformat_open_input(&avFormatContext, media_path.c_str(), nullptr, nullptr);// 获取视频流索引int video_index = av_find_best_stream(avFormatContext, AVMEDIA_TYPE_VIDEO, -1, -1, nullptr, 0);if (video_index < 0) {std::cout << "没有找到视频流" << std::endl;} else {// 打印媒体信息av_dump_format(avFormatContext, 0, media_path.c_str(), 0);h264_out = fopen(out_video_path.c_str(), "wb");AVStream *video_stream = avFormatContext->streams[video_index];avPacket = av_packet_alloc();av_init_packet(avPacket);while (true) {int rect = av_read_frame(avFormatContext, avPacket);if (rect < 0) {std::cout << "视频流读取完毕" << std::endl;break;} else if (video_index == avPacket->stream_index) { // 只需要视频的std::cout << "写入视频size:" << avPacket->size << std::endl;// 这里需要注意一下,一般的mp4读出来的的packet是不带start code的,需要手动加上,如果是ts的话则是带上了start code的// 初始化过滤器,如果本身就是带了start code的调这个也没事,不会重复添加init_h264_mp4toannexb(video_stream->codecpar);if (av_bsf_send_packet(bsf_ctx, avPacket) != 0) {av_packet_unref(avPacket); // 减少引用计数continue; // 需要更多的包}av_packet_unref(avPacket); // 减少引用计数while (av_bsf_receive_packet(bsf_ctx, avPacket) == 0) {// printf("fwrite size:%d\n", pkt->size);size_t size = fwrite(avPacket->data, 1, avPacket->size, h264_out);av_packet_unref(avPacket); //减少引用计数}} else {av_packet_unref(avPacket); //减少引用计数}}// 刷fflush(h264_out);}avformat_close_input(&avFormatContext);
}const int sampling_frequencies[] = {96000, // 0x088200, // 0x164000, // 0x248000, // 0x344100, // 0x432000, // 0x524000, // 0x622050, // 0x716000, // 0x812000, // 0x911025, // 0xa8000 // 0xb// 0xc d e f是保留的
};int adts_header(char *const p_adts_header, const int data_length,const int profile, const int samplerate,const int channels) {int sampling_frequency_index = 3; // 默认使用48000hzint adtsLen = data_length + 7;// 匹配采样率int frequencies_size = sizeof(sampling_frequencies) / sizeof(sampling_frequencies[0]);int i = 0;for (i = 0; i < frequencies_size; i++) {if (sampling_frequencies[i] == samplerate) {sampling_frequency_index = i;break;}}if (i >= frequencies_size) {std::cout << "没有找到支持的采样率" << std::endl;return -1;}p_adts_header[0] = 0xff; //syncword:0xfff 高8bitsp_adts_header[1] = 0xf0; //syncword:0xfff 低4bitsp_adts_header[1] |= (0 << 3); //MPEG Version:0 for MPEG-4,1 for MPEG-2 1bitp_adts_header[1] |= (0 << 1); //Layer:0 2bitsp_adts_header[1] |= 1; //protection absent:1 1bitp_adts_header[2] = (profile) << 6; //profile:profile 2bitsp_adts_header[2] |=(sampling_frequency_index & 0x0f) << 2; //sampling frequency index:sampling_frequency_index 4bitsp_adts_header[2] |= (0 << 1); //private bit:0 1bitp_adts_header[2] |= (channels & 0x04) >> 2; //channel configuration:channels 高1bitp_adts_header[3] = (channels & 0x03) << 6; //channel configuration:channels 低2bitsp_adts_header[3] |= (0 << 5); //original:0 1bitp_adts_header[3] |= (0 << 4); //home:0 1bitp_adts_header[3] |= (0 << 3); //copyright id bit:0 1bitp_adts_header[3] |= (0 << 2); //copyright id start:0 1bitp_adts_header[3] |= ((adtsLen & 0x1800) >> 11); //frame length:value 高2bitsp_adts_header[4] = (uint8_t) ((adtsLen & 0x7f8) >> 3); //frame length:value 中间8bitsp_adts_header[5] = (uint8_t) ((adtsLen & 0x7) << 5); //frame length:value 低3bitsp_adts_header[5] |= 0x1f; //buffer fullness:0x7ff 高5bitsp_adts_header[6] = 0xfc; //11111100 //buffer fullness:0x7ff 低6bitsreturn 0;
}/*** @param media_path* @param out_audio_path*/
void MediaDeMuxerCore::de_muxer_audio(std::string media_path, std::string out_audio_path) {// 分配上下文avFormatContext = avformat_alloc_context();// 打开输入文件avformat_open_input(&avFormatContext, media_path.c_str(), nullptr, nullptr);// 获取视频流索引int audio_index = av_find_best_stream(avFormatContext, AVMEDIA_TYPE_AUDIO, -1, -1, nullptr, 0);audio_out = fopen(out_audio_path.c_str(), "wb");if (audio_index < 0) {std::cout << "没有找到音频流" << std::endl;} else {// 打印媒体信息av_dump_format(avFormatContext, 0, media_path.c_str(), 0);audio_out = fopen(out_audio_path.c_str(), "wb");AVStream *audio_stream = avFormatContext->streams[audio_index];avPacket = av_packet_alloc();av_init_packet(avPacket);while (true) {int rect = av_read_frame(avFormatContext, avPacket);if (rect < 0) {std::cout << "音频流读取完毕" << std::endl;break;} else if (audio_index == avPacket->stream_index) { // 只需要音频的// adts 头是7个字节,也有可能是9个字节char adts_header_buf[7] = {0};adts_header(adts_header_buf, avPacket->size,avFormatContext->streams[audio_index]->codecpar->profile,avFormatContext->streams[audio_index]->codecpar->sample_rate,avFormatContext->streams[audio_index]->codecpar->channels);// 先写adts头,有些是解封装出来就带有adts头的比如tsfwrite(adts_header_buf, 1, 7, audio_out);// 写入aac包fwrite(avPacket->data, 1, avPacket->size, audio_out);av_packet_unref(avPacket); //减少引用计数} else {av_packet_unref(avPacket); //减少引用计数}}// 刷流fflush(audio_out);}}void MediaDeMuxerCore::de_muxer_audio_by_stream(std::string media_path, std::string out_audio_path) {// 分配上下文avFormatContext = avformat_alloc_context();// 打开输入文件avformat_open_input(&avFormatContext, media_path.c_str(), nullptr, nullptr);// 获取视频流索引int audio_index = av_find_best_stream(avFormatContext, AVMEDIA_TYPE_AUDIO, -1, -1, nullptr, 0);audio_out = fopen(out_audio_path.c_str(), "wb");if (audio_index < 0) {std::cout << "没有找到音频流" << std::endl;} else {std::cout << "音频时长:" << avFormatContext->streams[audio_index]->duration * av_q2d(avFormatContext->streams[audio_index]->time_base) << std::endl;AVFormatContext *out_format_context = avformat_alloc_context();const AVOutputFormat *avOutputFormat = av_guess_format(nullptr,out_audio_path.c_str(), nullptr);out_format_context->oformat = avOutputFormat;AVStream *aac_stream = avformat_new_stream(out_format_context, NULL);// 编码信息拷贝int ret = avcodec_parameters_copy(aac_stream->codecpar,avFormatContext->streams[audio_index]->codecpar);ret = avio_open(&out_format_context->pb,out_audio_path.c_str(),AVIO_FLAG_WRITE);if(ret < 0){std::cout << "输出流打开失败" << std::endl;}avformat_write_header(out_format_context, nullptr);avPacket = av_packet_alloc();av_init_packet(avPacket);while (true){ret = av_read_frame(avFormatContext,avPacket);if(ret < 0){std::cout << "read end " << std::endl;break;}if(avPacket->stream_index == audio_index){avPacket->stream_index = aac_stream->index;// 时间基转换av_packet_rescale_ts(avPacket,avPacket->time_base,aac_stream->time_base);ret = av_write_frame(out_format_context,avPacket);if(ret < 0){std::cout << "aad 写入失败" << std::endl;} else{std::cout << "aad 写入成功" << std::endl;}}av_packet_unref(avPacket);}av_write_trailer(out_format_context);avformat_flush(out_format_context);}}MediaDeMuxerCore::~MediaDeMuxerCore() {if (nullptr != avFormatContext) {avformat_free_context(avFormatContext);}if (nullptr != avPacket) {av_packet_free(&avPacket);}if (nullptr != avFrame) {av_frame_free(&avFrame);}if (nullptr != h264_out) {fclose(h264_out);h264_out = nullptr;}if (nullptr != audio_out) {fclose(audio_out);audio_out = nullptr;}if (nullptr != bsf_ctx) {av_bsf_free(&bsf_ctx);}
}
代码写的比较粗,而且很多异常也没有做处理,相关资源也没有进行释放,大家将就这看下。。。
推荐阅读
FFmpeg连载1-开发环境搭建
关注我,一起进步,人生不止coding!!!
FFmpeg连载2-分离视频和音频相关推荐
- [办公自动化软件教程] EV视频转换器怎么分离视频和音频?
本篇文章由 泉州SEO www.234yp.com 整理发布,办公自动化软件教程 www.234yp.com/Article/154666.html 谢谢合作! 办公自动化软件教程 很多时候,由于各种 ...
- 快速分割多段视频,并分离视频和音频
一般在制作视频时选择媒体梦工厂,拥有视频合并,视频分割,画中画等等功能,视频分割上,可以分离视频中的音频吗?下面就一起来试试吧. 登录上媒体梦工厂,在"分割视频"功能上点" ...
- 人声分离:快速分离视频和音频中的人声和背景伴奏,超简单
目前很多手机上比较常见的视频剪辑APP都有将视频声去掉这个功能,通过特定音频消音的方式将视频里声音部分去除,但是往往我们在做视频剪辑的时候,只是需要视频中的人声或者视频中的背景伴奏时,这些主流视频剪辑 ...
- 如何使用ffmpeg分离视频和音频t
首先,需要对将要处理的视频有一个基本的了解,可以通过MediaInfo来实现,即知道要提取出来的音频格式是什么. 以上图为例,将要分离的视频为music.mp4,可以看到音频格式为AAC格式. 1.将 ...
- FFmpeg连载3-视频解码
导读 在前面我们介绍了FFmpeg的解封装,并且实现了提取视频文件中的音频流和视频流单独输出,使用ffplay播放验证, 今天我们使用FFmpeg解码视频流,将视频解码为YUV并输出到文件,然后使用f ...
- FFmpeg连载7-mp3转码aac及AVAudioFifo的使用
前言 如今以抖音.快手为代表的短视频秀无处不在,比如它们一个很普通的功能就是使用流行音乐替换作为视频的背景音乐.而在视频中音频一般都是以AAC的形成存在,但流行音乐大多以mp3的格式传播, 因此需要完 ...
- FFmpeg连载4-音频解码
导读 前面我们介绍了使用FFmpeg解码视频,今天我们使用FFmpeg解码音频.我们的目标将mp4中的音频文件解码成PCM数据,并输出到本地文件,然后使用ffplay播放验证. 音频的解码过程就是将经 ...
- FFmpeg分离(解封装)视频和音频
使用FFmpeg库对mp4文件进行解封装,提取mp4中的视频流和音频流输出到单独的输出文件中. 所谓的分离视频和音频是我们通俗的说法,官方的说法叫解封装.与解封装对应的叫封装或复用器,也就是将多个视频 ...
- FFMPEG常用的一些命令介绍:音频录制、视频录制
1.视频和音频单独抓取 如果指定输入格式和设备,则ffmpeg可以直接捕获视频和音频. Linux下捕获摄像头的数据保存成视频文件: # ffmpeg -f video4linux2 -s 1280x ...
- python合并视频和音频_FFMpeg无损合并视频的多种方法 python | 猴头客
方法二确实可行 方法1 我试着不行 需要的话自己试试把 python 的调用cmd命令是这么写的 res=os.system("ifconfig"); 众所周知,从某些视频网站下载 ...
最新文章
- 【数据结构与算法】图论基础与图存储结构
- Linux上程序调试的基石(1)--ptrace
- Spring 面试问题 TOP 50,你会哪些?
- 黑马程序员——OC语言基本语法知识(一)
- Leaflet中添加标记、折线、圆圈、多边形、弹窗显示点击处坐标
- warning: incompatible implicit declaration of built-in function ‘exit’
- leetcode题解191-位1的个数
- Windows装机必备软件列表
- 从网上爬取全国大学学校数据2020版(最新版,包含大部分常用字段)
- FPGA实现除法运算
- vscode SVN not found
- JavaScript 事件和事件类型
- opencv +python采集识别填涂卡(答题卡)数据
- sdk没有登录什么意思_SDK登录与支付流程图文教程
- 电子学会 全国青少年软件编程等级考试(三级--八级)
- com.alibaba.dubbo.rpc.RpcException: Failed to invoke the method XXX in the service
- 最全Arduino控制电机教程说明和资料分享
- 【Xpath】使用following-sibling获取后面的同级节点
- 管理的核心是什么?这里有一套科学、高效的团队管理法则
- hdu1896 Stones