一、编码流程

本文福利, 免费领取C++音视频学习资料包、技术视频,内容包括(音视频开发,面试题,FFmpeg ,webRTC ,rtmp ,hls ,rtsp ,ffplay ,编解码,推拉流,srs)↓↓↓↓↓↓见下面↓↓文章底部点击免费领取↓↓

二、代码实现

/*---------------------------------------------------------
*   文件名:transfer.c
*   文件说明:实现YUV数据编码成H.264文件
*   作者:hzg
*   修改记录:
*       1、修改了申请图像内存的对其数值,由原来的32位对齐修改为16位对齐,解决了编码成H.264文件之后播放绿屏乱码问题
*       2、编码第22帧的时候,才开始将包置为1,编码延迟较久。疑似编码选项av_opt_set问题
----------------------------------------------------------*/
#include <math.h>
#include <stdlib.h>
#include <libavutil/opt.h>
#include <libavcodec/avcodec.h>
#include <libavutil/channel_layout.h>
#include <libavutil/common.h>
#include <libavutil/imgutils.h>
#include <libavutil/mathematics.h>
#include <libavutil/samplefmt.h>
#include <libavutil/frame.h>
#include <libavformat/avformat.h>
#include <libswscale/swscale.h>char * prename = "TestPre";
char * outname = "TestOut";
char * out_r = NULL;
int framenum = 0;int main(int argc, char **argv)
{AVFrame *frame;AVCodec *codec = NULL;AVPacket packet;AVCodecContext *codecContext;int readSize=0;int ret=0,getPacket;FILE * fileIn,*fileOut;int frameCount=0;/* register all the codecs */av_register_all();if(argc!=4){fprintf(stdout,"usage:./test_ffmpeg xxx.yuv width height\n");return -1;}//1.我们需要读一帧一帧的数据,所以需要AVFrame结构//读出的一帧数据保存在AVFrame中。frame  = av_frame_alloc();frame->width = atoi(argv[2]);frame->height = atoi(argv[3]);fprintf(stdout,"transf para width=%d,height=%d\n",frame->width,frame->height);frame->format = AV_PIX_FMT_YUV420P;//根据指定的宽,高,和像素格式申请图像内存,最后一个参数表示内存对齐的值,32位对齐4字节,导致352*288时候绿屏,尝试修改成16位对齐//修改成16位对齐之后av_image_alloc(frame->data,frame->linesize,frame->width,frame->height,frame->format,16);fileIn =fopen(argv[1],"r+");//2.读出来的数据保存在AVPacket中,因此,我们还需要AVPacket结构体//初始化packetav_init_packet(&packet);//3.读出来的数据,我们需要编码,因此需要编码器//下面的函数找到h.264类型的编码器/* find the mpeg1 video encoder */fprintf(stdout, "find encoder AV_CODEC_ID_H264\n");codec = avcodec_find_encoder(AV_CODEC_ID_H264);if (!codec) {fprintf(stderr, "Codec not found\n");exit(1);}//有了编码器,我们还需要编码器的上下文环境,用来控制编码的过程codecContext = avcodec_alloc_context3(codec);//分配AVCodecContext实例if (!codecContext){fprintf(stderr, "Could not allocate video codec context\n");return -1;}//设置编码器参数控制编码/* put sample parameters */codecContext->bit_rate = 400000;      //参数为400000的时候,编码出来的busH264文件为254KB/* resolution must be a multiple of two */codecContext->width = 352;              //输入文件bus是CIF格式,YV12 352*288codecContext->height = 288;/* frames per second */codecContext->time_base = (AVRational){1,25};/* emit one intra frame every ten frames* check frame pict_type before passing frame* to encoder, if frame->pict_type is AV_PICTURE_TYPE_I* then gop_size is ignored and the output of encoder* will always be I frame irrespective to gop_size*/codecContext->gop_size = 10;          //每10帧发送一帧I帧/** vcodec_encode_video2函数输出的延时仅仅跟max_b_frames的设置有关,  * 想进行实时编码,将max_b_frames设置为0便没有编码延时了*/codecContext->max_b_frames = 1;            //每两个非B帧之间最多一个B帧codecContext->pix_fmt = AV_PIX_FMT_YUV420P;  /** * ultrafast,superfast, veryfast, faster, fast, medium * slow, slower, veryslow, placebo. 这是x264编码速度的选项 */  //av_opt_set(codecContext->priv_data, "preset", "slow", 0);av_opt_set(codecContext->priv_data, "preset", "ultrafast", 0);//准备好了编码器和编码器上下文环境,现在可以打开编码器了fprintf(stdout, "open encoder AV_CODEC_ID_H264\n");if (avcodec_open2(codecContext, codec, NULL) < 0)      //根据编码器上下文打开编码器{fprintf(stderr, "Could not open codec\n");return -1;}//4.准备输出文件fileOut= fopen("test.h264","w+");//下面开始编码while(1){//读一帧数据出来readSize = fread(frame->data[0],1,frame->linesize[0]*frame->height,fileIn);fprintf(stdout,"fread data[0] frame->linesize[0] %d,frame->height %d,readSize %d\n",frame->linesize[0],frame->height,readSize);if(readSize == 0){fprintf(stdout,"end of file\n");frameCount++;break;}readSize = fread(frame->data[1],1,frame->linesize[1]*frame->height/2,fileIn);//本应该是25344,实际是27648,帧数变成146,实际150fprintf(stdout,"fread data[1] frame->linesize[1] %d,readSize %d \n",frame->linesize[1],readSize);readSize = fread(frame->data[2],1,frame->linesize[2]*frame->height/2,fileIn);fprintf(stdout,"fread data[2] frame->linesize[2] %d readSize %d \n",frame->linesize[2],readSize);//初始化packetav_init_packet(&packet);/* encode the image */frame->pts = frameCount;//将AVFrame中的像素信息编码为AVPacket中的码流,成功编码一个packet,将getPacket置位1ret = avcodec_encode_video2(codecContext, &packet, frame, &getPacket); if (ret < 0) {fprintf(stderr, "Error encoding frame\n");return -1;}fprintf(stdout,"had encode %d frame,and getPacket is %d\n",framenum,getPacket);    //read并encode了22帧,才开始获得一个完整编码帧if (getPacket) {frameCount++;//获得一个完整的编码帧printf("Write frame %3d (size=%5d)\n", frameCount, packet.size);fwrite(packet.data, 1,packet.size, fileOut);av_packet_unref(&packet);}}/* flush buffer */for ( getPacket= 1; getPacket; frameCount++) {fprintf(stdout,"get flush buffer getPacket %d,frameCount %d\n",getPacket,frameCount);fflush(stdout);frame->pts = frameCount;ret = avcodec_encode_video2(codecContext, &packet, NULL, &getPacket);if (ret < 0){fprintf(stderr, "Error encoding frame\n");return -1;}if (getPacket) {printf("Write frame %3d (size=%5d)\n", frameCount, packet.size); //fwrite(packet.data, 1, packet.size, fileOut);av_packet_unref(&packet);}} fclose(fileIn);fclose(fileOut);av_frame_free(&frame);avcodec_close(codecContext);av_free(codecContext);return 0;
}

三、实现效果

截图效果:

四、FFmpeg中的YUV格式

FFmpeg视频解码后,一般存储为AV_PIX_FMT_YUV420P 的format,而解码后的数据存储在结构体 AVFrame 中。YUV420P在内存中的排布如下:

YYYYYYYY UUUU VVVV
  • 1

下面是我们编程时关心的重点,YUV420P在AVFrame中的存储形式,

planar YUV 4:2:0, 12bpp, (1 Cr & Cb sample per 2x2 Y samples)

即存储在结构体 AVFrame 的data[ ]数组中 ,
data[0]——-Y分量
data[1]——-U分量
data[2]——-V分量
linesize[]数组中保存的是对应通道的数据宽度 ,
linesize[0]——-Y分量的宽度
linesize[1]——-U分量的宽度
linesize[2]——-V分量的宽度
这里要特别注意,linesize[0]的值并不一定等于图片的宽度,有时候为了对齐各解码器的CPU,实际尺寸会大于图片的宽度,这点在我们编程时(比如OpengGL硬件转换/渲染)要特别注意,否则解码出来的图像会异常。

FFmpeg将YUV420P格式数据编码成H.264相关推荐

  1. FFMPEG 将YUV420P格式数据编码成H.264

    FFMPEG学习 将YUV420P格式数据编码成H.264 前言 一.编码流程 二.代码实现 三.实现效果 四.总结 前言 在学习FFMPEG过程中,我们需要获取到H264码流,但是我们采集到的一般都 ...

  2. 【FFmpeg编码实战】(2)将YUV420P图片集编码成H.264视频文件(方法二)

    [FFmpeg编码实战](2)将YUV420P图片集编码成H.264视频文件(方法二) 一.编码成 H.264 视频文件,运行结果 二.编码成 MPEG4 视频文件,运行结果 三.编码成 AV_COD ...

  3. 在Linux环境下使用ffmpeg将PCM音频数据编码成aac数据

    在Linux环境下使用ffmpeg将PCM音频数据编码成aac数据 程序框图 代码演示 程序框图 将pcm数据经过aac编码器编码成aac数据,我是将从设备上采集的数据经过重采样送入aac编码器进行编 ...

  4. 利用FFmpeg编码器将JPG图片进行H.264编码原理

    利用FFmpeg编码器将JPG图片进行H.264编码原理 文章目录 利用FFmpeg编码器将JPG图片进行H.264编码原理 整体的编码流程 将JPG或BMP编码为YUV 利用FFmpeg将YUV格式 ...

  5. 使用FFmpeg的SDK库实现将H.264流封装进MP4文件时全局SPS、PPS与流中SPS、PPS冲突的问题

    一.问题 1. 使用FFmpeg的SDK库实现将H.264流封装进MP4文件的源码大致如下: char* filename = "./test.mp4" AVOutputForma ...

  6. Wireshark将UDP包解析成H.264

    音视频媒体 Wireshark将UDP包解析成H.264 Wireshark将UDP包解析成H.264 音视频媒体 前言 前言 话不多说,视频会议码流传输用的UDP协议,其网络封装为eth:ether ...

  7. 码流格式: Annex-B, AVCC(H.264)与HVCC(H.265), extradata详解

    1.前言 介绍H.264结构的文章铺天盖地,无责任翻译.无责任转载以及部分经验之谈(目前搜索最靠前的一篇实际是对stackoverflow上答案的翻译..链接后面给出了),所以缺的不是资料,是叙述准确 ...

  8. video format格式MJPEG,MPEG,H.264简介

     1.JPEG/M-JPEG JPEG是一种静止图像的压缩标准,它是一种标准的帧内压缩编码方式.当硬件处理速度足够快时,JPEG能用于实时动图像的视频压缩.在画面变动较小的情况下能提供相当不错的图像质 ...

  9. 【Android RTMP】安卓直播推流总结 ( 直播服务器搭建 | NV21 图像采集 | H.264 视频编码 | PCM 音频采集 | AAC 音频编码 | RTMP 包封装推流 )

    文章目录 一. 安卓直播推流专栏博客总结 二. 相关资源介绍 三. GitHub 源码地址 四. 整体 Android 直播推流数据到服务器并观看直播演示过程 Android 直播推流流程 : 手机采 ...

最新文章

  1. biztalk中的发送端口产生异常及处理(下)
  2. 最大子段和——分治与动态规划
  3. 如何查看python解释器位置_Python:查看解释器的位置
  4. 启明云端分享| ESP32-S2直驱USB摄像头
  5. JS移动客户端--触屏滑动事件 banner图效果
  6. P3337-[ZJOI2013]防守战线【单纯形】
  7. python求小于n的所有素数_用python求出2000000内所有素数的和?不知怎么写?
  8. 全文目录和全文索引的关系
  9. 没有下班时间的上班怎么办?
  10. git 命令 —— checkout 与分支管理
  11. 2021牛客寒假算法基础集训营6,签到题ACDFGIJ
  12. Junit介绍与实现
  13. 【English】20190313
  14. 【技术贴】关于IE主页被篡改、假IE的根治方法。。。
  15. 终极讲师介绍:集齐 27 位大神召唤亚洲首届 Rust 开发者大会!
  16. 10019---层次选择器
  17. ios CAF音频转换为MP3
  18. 原生JavaScript实现连连看游戏
  19. AnswerBook2(端口8888)相关漏洞
  20. Spring AOP 原理 (面试必备)

热门文章

  1. 制造业如何对抗周期:平台化、数字化
  2. Jupyter Notebook使用指南
  3. Java 数据库连接池C3P0,德鲁伊(Druid)的详解
  4. cmakelist官方教程_超详细的cmake入门教程
  5. 使用sql脚本创建数据库表
  6. python环境变量配置(win10+Python27)
  7. 《大道至简》-观后感2
  8. linux 重新加载dev,/dev/shm修改大小并重新挂载
  9. 亚马逊ABA数据关键词递归函数
  10. 2008年个人站长必用的八大免费武器