ffmpeg 最简单的转码封装mp4文件
本例简单实现了解码后的video重新编码264之后在mux成MP4文件的过程,主要是用来记录muxing的方法。
下面详细说一下细节:
大家都知道一般解码出来的数据都是播放顺序,解码器是将编码顺序的数据重新按照解码后的播放顺序输出的。而编码器是把数据根据解码需要的顺序重新排序保存的。
当然,以上情况只在有帧的情况下才有用,否则只有IP帧的话解码和编码的顺序是一样的
比如:解码后的数据是IBBP,那要将这个数据编码的话,编码后的数据保存的格式就是IPBB
这只是内部的处理,对于用ffmpeg的库的我们不用太过关心 ,但是 , 要注意,我们将数据塞给编码器的时候,要给顺序的播放加上顺序的时间标记,其实很简单只要保证你送给编码器的每一frame的pts都是顺序的就可以了,否则编码器会报 “non-strictly-monotonic pts at frame” , 究其原因,是因为编码器需要送进来的frame时间上是递增的,为什么需要这个就得去本研究编码器了
点击(此处)折叠或打开
- if( pic.i_pts <= largest_pts )
- {
- if( cli_log_level >= X264_LOG_DEBUG || pts_warning_cnt < MAX_PTS_WARNING )
- x264_cli_log( "x264", X264_LOG_WARNING, "non-strictly-monotonic pts at frame %d (%"PRId64" <= %"PRId64")\n",
- i_frame, pic.i_pts, largest_pts );
- else if( pts_warning_cnt == MAX_PTS_WARNING )
- x264_cli_log( "x264", X264_LOG_WARNING, "too many nonmonotonic pts warnings, suppressing further ones\n" );
- pts_warning_cnt++;
- pic.i_pts = largest_pts + ticks_per_frame;
- }
在将数据送到编码器后,进行编码输出得到的pkt有自己的pts和dts等数据,但是这个数据记得吗?是用我们自己送进去的pts来表示的,所以在和原来的audio mux的时候,会出现严重的音视频不同步,现在想想这个问题,就很容易理解了,两边的pts差距很大,当然解码后做同步的时候会差很多。
其实ffmpeg在解码的时候将解码出来的顺序时间戳给了frame的pkt_pts这个成员,所以我们可以直接用这个值赋值给frame的pts,在送进编码器,这样编码出来的pkt中的时间戳就和原来的audio对上了。
点击(此处)折叠或打开
- ret = avcodec_decode_video2(video_dec_ctx, pFrame, &got_picture, pkt);
- if (ret < 0)
- {
- delete pkt;
- return 0;
- }
- pFrame->pts = pFrame->pkt_pts; //赋值解码后的pts
最后在进行mux成mp4文件就ok了
在mux的过程中,有个接口av_rescale_q_rnd,这个是用来换算pts的,因为在设定mp4输出格式的时候time_base这个值是和原来的文件不一样的,所以要用这个来重新算分装数据的在新的mp4中的pts和dts等数据,具体原因后续会继续往里研究
直接上代码:
点击(此处)折叠或打开
- const char* SRC_FILE = "1.mkv";
- const char* OUT_FILE = "outfile.h264";
- const char* OUT_FMT_FILE = "outfmtfile.mp4";
- int main()
- {
- av_register_all();
- AVFormatContext* pFormat = NULL;
- if (avformat_open_input(&pFormat, SRC_FILE, NULL, NULL) < 0)
- {
- return 0;
- }
- AVCodecContext* video_dec_ctx = NULL;
- AVCodec* video_dec = NULL;
- if (avformat_find_stream_info(pFormat, NULL) < 0)
- {
- return 0;
- }
- av_dump_format(pFormat, 0, SRC_FILE, 0);
- video_dec_ctx = pFormat->streams[0]->codec;
- video_dec = avcodec_find_decoder(video_dec_ctx->codec_id);
- if (avcodec_open2(video_dec_ctx, video_dec, NULL) < 0)
- {
- return 0;
- }
- AVFormatContext* pOFormat = NULL;
- AVOutputFormat* ofmt = NULL;
- if (avformat_alloc_output_context2(&pOFormat, NULL, NULL, OUT_FILE) < 0)
- {
- return 0;
- }
- ofmt = pOFormat->oformat;
- if (avio_open(&(pOFormat->pb), OUT_FILE, AVIO_FLAG_READ_WRITE) < 0)
- {
- return 0;
- }
- AVCodecContext *video_enc_ctx = NULL;
- AVCodec *video_enc = NULL;
- video_enc = avcodec_find_encoder(AV_CODEC_ID_H264);
- AVStream *video_st = avformat_new_stream(pOFormat, video_enc);
- if (!video_st)
- return 0;
- video_enc_ctx = video_st->codec;
- video_enc_ctx->width = video_dec_ctx->width;
- video_enc_ctx->height = video_dec_ctx->height;
- video_enc_ctx->pix_fmt = PIX_FMT_YUV420P;
- video_enc_ctx->time_base.num = 1;
- video_enc_ctx->time_base.den = 25;
- video_enc_ctx->bit_rate = video_dec_ctx->bit_rate;
- video_enc_ctx->gop_size = 250;
- video_enc_ctx->max_b_frames = 10;
- //H264
- //pCodecCtx->me_range = 16;
- //pCodecCtx->max_qdiff = 4;
- video_enc_ctx->qmin = 10;
- video_enc_ctx->qmax = 51;
- if (avcodec_open2(video_enc_ctx, video_enc, NULL) < 0)
- {
- printf("编码器打开失败!\n");
- return 0;
- }
- printf("Output264video Information====================\n");
- av_dump_format(pOFormat, 0, OUT_FILE, 1);
- printf("Output264video Information====================\n");
- //mp4 file
- AVFormatContext* pMp4Format = NULL;
- AVOutputFormat* pMp4OFormat = NULL;
- if (avformat_alloc_output_context2(&pMp4Format, NULL, NULL, OUT_FMT_FILE) < 0)
- {
- return 0;
- }
- pMp4OFormat = pMp4Format->oformat;
- if (avio_open(&(pMp4Format->pb), OUT_FMT_FILE, AVIO_FLAG_READ_WRITE) < 0)
- {
- return 0;
- }
- for (int i = 0; i < pFormat->nb_streams; i++) {
- AVStream *in_stream = pFormat->streams[i];
- AVStream *out_stream = avformat_new_stream(pMp4Format, in_stream->codec->codec);
- if (!out_stream) {
- return 0;
- }
- int ret = 0;
- ret = avcodec_copy_context(out_stream->codec, in_stream->codec);
- if (ret < 0) {
- fprintf(stderr, "Failed to copy context from input to output stream codec context\n");
- return 0;
- }
- out_stream->codec->codec_tag = 0;
- if (pMp4Format->oformat->flags & AVFMT_GLOBALHEADER)
- out_stream->codec->flags |= CODEC_FLAG_GLOBAL_HEADER;
- }
- av_dump_format(pMp4Format, 0, OUT_FMT_FILE, 1);
- if (avformat_write_header(pMp4Format, NULL) < 0)
- {
- return 0;
- }
- ////
- av_opt_set(video_enc_ctx->priv_data, "preset", "superfast", 0);
- av_opt_set(video_enc_ctx->priv_data, "tune", "zerolatency", 0);
- avformat_write_header(pOFormat, NULL);
- AVPacket *pkt = new AVPacket();
- av_init_packet(pkt);
- AVFrame *pFrame = avcodec_alloc_frame();
- int ts = 0;
- while (1)
- {
- if (av_read_frame(pFormat, pkt) < 0)
- {
- avio_close(pOFormat->pb);
- av_write_trailer(pMp4Format);
- avio_close(pMp4Format->pb);
- delete pkt;
- return 0;
- }
- if (pkt->stream_index == 0)
- {
- int got_picture = 0, ret = 0;
- ret = avcodec_decode_video2(video_dec_ctx, pFrame, &got_picture, pkt);
- if (ret < 0)
- {
- delete pkt;
- return 0;
- }
- pFrame->pts = pFrame->pkt_pts;//ts++;
- if (got_picture)
- {
- AVPacket *tmppkt = new AVPacket;
- av_init_packet(tmppkt);
- int size = video_enc_ctx->width*video_enc_ctx->height * 3 / 2;
- char* buf = new char[size];
- memset(buf, 0, size);
- tmppkt->data = (uint8_t*)buf;
- tmppkt->size = size;
- ret = avcodec_encode_video2(video_enc_ctx, tmppkt, pFrame, &got_picture);
- if (ret < 0)
- {
- avio_close(pOFormat->pb);
- delete buf;
- return 0;
- }
- if (got_picture)
- {
- //ret = av_interleaved_write_frame(pOFormat, tmppkt);
- AVStream *in_stream = pFormat->streams[pkt->stream_index];
- AVStream *out_stream = pMp4Format->streams[pkt->stream_index];
- tmppkt->pts = av_rescale_q_rnd(tmppkt->pts, in_stream->time_base, out_stream->time_base, AV_ROUND_NEAR_INF);
- tmppkt->dts = av_rescale_q_rnd(tmppkt->dts, in_stream->time_base, out_stream->time_base, AV_ROUND_NEAR_INF);
- tmppkt->duration = av_rescale_q(tmppkt->duration, in_stream->time_base, out_stream->time_base);
- tmppkt->pos = -1;
- ret = av_interleaved_write_frame(pMp4Format, tmppkt);
- if (ret < 0)
- return 0;
- delete tmppkt;
- delete buf;
- }
- }
- //avcodec_free_frame(&pFrame);
- }
- else if (pkt->stream_index == 1)
- {
- AVStream *in_stream = pFormat->streams[pkt->stream_index];
- AVStream *out_stream = pMp4Format->streams[pkt->stream_index];
- pkt->pts = av_rescale_q_rnd(pkt->pts, in_stream->time_base, out_stream->time_base, AV_ROUND_NEAR_INF);
- pkt->dts = av_rescale_q_rnd(pkt->dts, in_stream->time_base, out_stream->time_base, AV_ROUND_NEAR_INF);
- pkt->duration = av_rescale_q(pkt->duration, in_stream->time_base, out_stream->time_base);
- pkt->pos = -1;
- if (av_interleaved_write_frame(pMp4Format, pkt) < 0)
- return 0;
- }
- }
- avcodec_free_frame(&pFrame);
- return 0;
- }
ffmpeg 最简单的转码封装mp4文件相关推荐
- 转: FFMpeg 封装MP4 文件
FFmpeg 封装MP4文件的一个例子 项目中用到FFmpeg 将IP摄像头的视频流的保存MP4文件的.之前的大哥将它先存成了H264文件,然后又调用FFMpeg的命令行去实现转码为MP4.感觉 ...
- 利用FFmpeg转码生成MP4文件
利用FFmpeg转码生成MP4文件 2017年06月24日 14:42:53 阅读数:2401 项目中,需要把一路音频流及一路视频流分别转码,生成指定格式(MP4)文件.在使用ffmpeg转码生成mp ...
- 使用 MediaExtractor 和 MediaMuxer API 解析和封装 mp4 文件
一个音视频文件是由音频和视频组成的,我们可以通过MediaExtractor.MediaMuxer把音频或视频给单独抽取出来,抽取出来的音频和视频能单独播放: 一.MediaExtractor API ...
- ffmpeg基础三:H264,从MP4文件获取(av_bsf_get_by_name(“h264_mp4toannexb“))和从TS流获取保存H264
参考:零声学院 1.流媒体编解码流程 2.编码原理 在⾳视频传输过程中,视频⽂件的传输是⼀个极⼤的问题:⼀段分辨率为19201080,每个像 素点为RGB占⽤3个字节,帧率是25的视频,对于传输带宽的 ...
- H264文件封装MP4文件
推荐一篇优秀的博文.对于MP4的初学者很有用:MP4文件格式解析_chenchong_219的博客-CSDN博客_mp4格式 对于这篇博文最后 Sample Table Box部分我想做一些补充,如有 ...
- 批处理ffmpeg将avi视频格式转换成mp4文件同时生成m3u8文件
需求说明 本人在制作全栈开发的视频录制过程中,使用的是CameraStudio,录制生成在vv目录下的若干个avi视频,其中特别注意的是,生成的这些文件以及目录路径只能是字母或数字.需要将其转化成mp ...
- 利用WIN10自带ACG播放器完成.flv视频文件转码为mp4文件
1.双击视频,利用ACG播放器打开 2.点击更多-工具箱 3.进行视频转码 4.压制完的视频会放在其列出的视频文件夹下:
- ffmpeg + opencv 把摄像头画面保存为mp4文件
根据 https://stackoverflow.com/questions/46444474/c-ffmpeg-create-mp4-file 修改 运行环境为Ubuntu 20.10 #inclu ...
- linux 视频编辑 ffmpeg,ffmpeg转码视频真的好用!(ffmpeg的简单使用方法)
说明 转码和编辑视频 今天用Android Studio(后面简称AS)里的模拟器给系统录屏,用来展示OpenGL可视化的东西,打算上传B站,后来发现AS只能保存webm格式和GIF格式的视频,并且文 ...
- ffmpeg转码视频真的好用!(ffmpeg的简单使用方法)
说明 笔者个人博客网站:https://hk-shao.github.io/ 最新文章和更新都会在这里 转码和编辑视频 今天用Android Studio(后面简称AS)里的模拟器给系统录屏,用来展示 ...
最新文章
- Java数据库连接(JDBC)之二:Statement对象和PreparedStatement对象的使用
- ajax post 表单和 json 字符串
- linux udp端口大数据包,Linux协议栈中UDP数据报从网卡到用户空间流程总结
- java ews_Java---使用EWS 写个ExchangeMailUtil
- python版本切换_怎么切换python版本
- VirtualBox中使用双网卡实现CentOS既能上网(校园网)也能使用SSHclient
- pytorch torch.unsqueeze
- MVVM js 库JsRender/JsViews和knockoutjs介绍
- 一个虚拟服务器装多个网站,一台虚拟主机 如何放多个网站
- matlab拉格朗日曲线_数学中高耸的金字塔——拉格朗日
- Java 中与()短路与()以及 或(|)短路或(||)的关系
- 你了解实时3D渲染吗?实时渲染软件和应用场景科普来了
- Java基础案例教程_Java基础案例教程答案
- Latex入门_第3章:文档元素
- FastDFS构成、特性、Linux下安装以及Java如何访问
- Koa2仿知乎服务端项目:Webpack配置
- 前端实现语音播报功能
- 崭新朕亨公益公司 Kickstarter在创业公司中走出全新一条路
- 物联网平台独孤九剑(1)| 超强物联网架构解读
- 返回值被忽略_聊聊如今智能手机中一项容易被忽略的参数信息--闭环马达