流媒体解码及H.264编码推流
简介
- 相关理论
- 程序流程
- Opencv解析视频流
- 像素格式转换
- FFmpeg进行H.264编码
- FFmpeg进行格式封装和推流
这里我们使用了FFmpge的sdk和Opencv的sdk。为了方便测试,我们直接使用在线的rtsp网络流。rtmp://live.hkstv.hk.lxdns.com/live/hks这个是香港卫视的rtsp流,可以用vlc播放器测试是否可以播放。
FFmpeg支持的像素格式
1 所有的像素格式的名称都是以“AV_PIX_FMT_”开头
2 像素格式名称后面有“P”的,代表是planar格式,否则就是packed格式。
Planar格式不同的分量分别存储在不同的数组中,例如AV_PIX_FMT_YUV420P存储方式如下:
- data[0]: Y1, Y2, Y3, Y4, Y5, Y6, Y7, Y8……
- data[1]: U1, U2, U3, U4……
- data[2]: V1, V2, V3, V4……
Packed格式的数据都存储在同一个数组中,例如AV_PIX_FMT_RGB24存储方式如下:
data[0]: R1, G1, B1, R2, G2, B2, R3, G3, B3, R4, G4, B4……
3 像素格式名称后面有“BE”的,代表是Big Endian格式;名称后面有“LE”的,代表是Little Endian格式。
封装相关类
- AVFormatContext:统领全局的基本结构体。主要用于处理封装格式(FLV/MKV/RMVB等)。
- AVIOContext:输入输出对应的结构体,用于输入输出(读写文件,RTMP协议等)。
- AVStream,AVCodecContext:视音频流对应的结构体,用于视音频编解码。
- AVFrame:存储非压缩的数据(视频对应RGB/YUV像素数据,音频对应PCM采样数据)
- AVPacket:存储压缩数据(视频对应H.264等码流数据,音频对应AAC/MP3等码流数据)
图像格式转换以及图像缩放
sws_getContext
初始化函数
- int srcW,int srcH 为原始图像数据的高和宽;
- int dstW,int dstH 为输出图像数据的高和宽;
- enum AVPixelFormat srcFormat 为输入和输出图片数据的类型;eg:AV_PIX_FMT_YUV420、PAV_PIX_FMT_RGB24;
int flags 为scale算法种类;eg:SWS_BICUBIC、SWS_BICUBLIN、SWS_POINT、SWS_SINC; - SwsFilter *srcFilter ,SwsFilter *dstFilter,const double *param 可以不用管,全为NULL即可
sws_scale
执行图像格式转换以及图像缩放 - struct SwsContext *c 为sws_getContext函数返回的值;
- const uint8_t *const srcSlice[],uint8_t *const dst[] 为输入输出图像数据各颜色通道的buffer指针数组;
- const int srcStride[],const int dstStride[] 为输入输出图像数据各颜色通道每行存储的字节数数组;
- int srcSliceY 为从输入图像数据的第多少列开始逐行扫描,通常设为0;
- int srcSliceH 为需要扫描多少行,通常为输入图像数据的高度;
sws_freeContext
程序流程
大体上分四个大步骤:
1.各种初始化
- Opencv读取视频流
- 像素格式转换
- FFmpeg进行H.264编码
- FFmpeg进行视频格式封装。
- FFmpeg进行推流
接下来我们来细化流程。
Opencv读取视频流
打开并读取视频帧使用VideoCapture类。open来打开。打开完成后可获取相关的视频信息。如尺寸,fps等
//获取视频帧的尺寸
int inWidth = cam.get(CAP_PROP_FRAME_WIDTH);
int inHeight = cam.get(CAP_PROP_FRAME_HEIGHT);
int fps = cam.get(CAP_PROP_FPS);
真正的读取视频帧可以使用read()方法。保存在Mat中。而read()中主要分两个步骤
使用grab()方法解码视频帧
注意解码的步骤不许要做,保证后面的数据能够正确解析
使用retrieve将yuv转换为rgb数据
这里的yuv和rgb都是未压缩的数据,得到的rgb数据就可以直接显示。
像素格式转换
初始化格式转换上下文
vsc = sws_getCachedContext(vsc,inWidth, inHeight, AV_PIX_FMT_BGR24, //源宽、高、像素格式inWidth, inHeight, AV_PIX_FMT_YUV420P,//目标宽、高、像素格式SWS_BICUBIC, // 尺寸变化使用算法0, 0, 0
);
初始化存放YUV数据的AVFrame
AVFrame *yuv = NULL;
yuv = av_frame_alloc();
yuv->format = AV_PIX_FMT_YUV420P;
yuv->width = inWidth;
yuv->height = inHeight;
yuv->pts = 0;
//分配yuv空间
int ret = av_frame_get_buffer(yuv, 32);
rgb转yuv,这里要注意rgb和yuv的存储格式。前面FFmpeg支持的像素格式有讲到
///rgb to yuv
//输入的数据结构
uint8_t *indata[AV_NUM_DATA_POINTERS] = { 0 };
//indata[0] bgrbgrbgr
//plane indata[0] bbbbb indata[1]ggggg indata[2]rrrrr
indata[0] = frame.data;
int insize[AV_NUM_DATA_POINTERS] = { 0 };
//一行(宽)数据的字节数
insize[0] = frame.cols * frame.elemSize();
int h = sws_scale(vsc, indata, insize, 0, frame.rows, //源数据yuv->data, yuv->linesize);
FFmpeg进行H.264编码
编码的方法就比较简单了,传入AVFrame。然后再用AVPacket去接收即可,这里还有一点要注意就是,pts的设置。
///h264编码
yuv->pts = vpts;
vpts++;
ret = avcodec_send_frame(vc, yuv);
if (ret != 0)continue;
ret = avcodec_receive_packet(vc, &pack);
FFmpeg进行视频格式封装和推流
需要强调的就是pts,dts,和duration的转换。前面H.264编码的时候,我们已经设置了pts。但是输出的time_base不一致,所以需要进行转换
//计算pts dts和duration。
pack.pts = av_rescale_q(pack.pts, vc->time_base, vs->time_base);
pack.dts = av_rescale_q(pack.dts, vc->time_base, vs->time_base);
pack.duration = av_rescale_q(pack.duration, vc->time_base, vs->time_base);
完整源码
#include <opencv2/highgui.hpp>
#include <iostream>
extern "C"
{
#include <libswscale/swscale.h>
#include <libavcodec/avcodec.h>
#include <libavformat/avformat.h>
}
#pragma comment(lib, "swscale.lib")
#pragma comment(lib, "avcodec.lib")
#pragma comment(lib, "avutil.lib")
#pragma comment(lib, "avformat.lib")
#pragma comment(lib,"opencv_world320d.lib")
using namespace std;
using namespace cv;
int main(int argc, char *argv[])
{//原地址char *inUrl = "http://ivi.bupt.edu.cn/hls/cctv1hd.m3u8";//nginx-rtmp 直播服务器rtmp推流URLchar *outUrl = "rtmp://192.166.11.13/live";//注册所有的编解码器avcodec_register_all();//注册所有的封装器av_register_all();//注册所有网络协议avformat_network_init();VideoCapture cam;Mat frame;namedWindow("video");//像素格式转换上下文SwsContext *vsc = NULL;//输出的数据结构 存储非压缩的数据(视频对应RGB/YUV像素数据,音频对应PCM采样数据)AVFrame *yuv = NULL;//编码器上下文AVCodecContext *vc = NULL;//rtmp flv 封装器AVFormatContext *ic = NULL;try{ /// 1 使用opencv打开源视频流cam.open(inUrl);if (!cam.isOpened()){throw exception("cam open failed!");}cout << inUrl << " cam open success" << endl;//获取视频帧的尺寸int inWidth = cam.get(CAP_PROP_FRAME_WIDTH);int inHeight = cam.get(CAP_PROP_FRAME_HEIGHT);int fps = cam.get(CAP_PROP_FPS);///2 初始化格式转换上下文vsc = sws_getCachedContext(vsc,inWidth, inHeight, AV_PIX_FMT_BGR24, //源宽、高、像素格式inWidth, inHeight, AV_PIX_FMT_YUV420P,//目标宽、高、像素格式SWS_BICUBIC, // 尺寸变化使用算法0, 0, 0);if (!vsc){throw exception("sws_getCachedContext failed!");}///3 初始化输出的数据结构。未压缩的数据yuv = av_frame_alloc();yuv->format = AV_PIX_FMT_YUV420P;yuv->width = inWidth;yuv->height = inHeight;yuv->pts = 0;//分配yuv空间int ret = av_frame_get_buffer(yuv, 32);if (ret != 0){char buf[1024] = { 0 };av_strerror(ret, buf, sizeof(buf) - 1);throw exception(buf);}///4 初始化编码上下文//a 找到编码器AVCodec *codec = avcodec_find_encoder(AV_CODEC_ID_H264);if (!codec){throw exception("Can`t find h264 encoder!");}//b 创建编码器上下文vc = avcodec_alloc_context3(codec);if (!vc){throw exception("avcodec_alloc_context3 failed!");}//c 配置编码器参数vc->flags |= AV_CODEC_FLAG_GLOBAL_HEADER; //全局参数vc->codec_id = codec->id;vc->thread_count = 8;vc->bit_rate = 50 * 1024 * 8;//压缩后每秒视频的bit位大小 50kBvc->width = inWidth;vc->height = inHeight;vc->time_base = { 1,fps };vc->framerate = { fps,1 };//画面组的大小,多少帧一个关键帧vc->gop_size = 50;vc->max_b_frames = 0;vc->pix_fmt = AV_PIX_FMT_YUV420P;//d 打开编码器上下文ret = avcodec_open2(vc, 0, 0);if (ret != 0){char buf[1024] = { 0 };av_strerror(ret, buf, sizeof(buf) - 1);throw exception(buf);}cout << "avcodec_open2 success!" << endl;///5 输出封装器和视频流配置//a 创建输出封装器上下文ret = avformat_alloc_output_context2(&ic, 0, "flv", outUrl);if (ret != 0){char buf[1024] = { 0 };av_strerror(ret, buf, sizeof(buf) - 1);throw exception(buf);}//b 添加视频流 视音频流对应的结构体,用于视音频编解码。AVStream *vs = avformat_new_stream(ic, NULL);if (!vs){throw exception("avformat_new_stream failed");}//附加标志,这个一定要设置vs->codecpar->codec_tag = 0;//从编码器复制参数avcodec_parameters_from_context(vs->codecpar, vc);av_dump_format(ic, 0, outUrl, 1);///打开rtmp 的网络输出IO AVIOContext:输入输出对应的结构体,用于输入输出(读写文件,RTMP协议等)。ret = avio_open(&ic->pb, outUrl, AVIO_FLAG_WRITE);if (ret != 0){char buf[1024] = { 0 };av_strerror(ret, buf, sizeof(buf) - 1);throw exception(buf);}//写入封装头ret = avformat_write_header(ic, NULL);if (ret != 0){char buf[1024] = { 0 };av_strerror(ret, buf, sizeof(buf) - 1);throw exception(buf);}//存储压缩数据(视频对应H.264等码流数据,音频对应AAC/MP3等码流数据)AVPacket pack;memset(&pack, 0, sizeof(pack));int vpts = 0;for (;;){///读取rtsp视频帧,解码视频帧if (!cam.grab()){continue;}///yuv转换为rgbif (!cam.retrieve(frame)){continue;}imshow("video", frame);waitKey(1);///rgb to yuv//输入的数据结构uint8_t *indata[AV_NUM_DATA_POINTERS] = { 0 };//indata[0] bgrbgrbgr//plane indata[0] bbbbb indata[1]ggggg indata[2]rrrrr indata[0] = frame.data;int insize[AV_NUM_DATA_POINTERS] = { 0 };//一行(宽)数据的字节数insize[0] = frame.cols * frame.elemSize();int h = sws_scale(vsc, indata, insize, 0, frame.rows, //源数据yuv->data, yuv->linesize);if (h <= 0){continue;}//cout << h << " " << flush;///h264编码yuv->pts = vpts;vpts++;ret = avcodec_send_frame(vc, yuv);if (ret != 0)continue;ret = avcodec_receive_packet(vc, &pack);if (ret != 0 || pack.size > 0){//cout << "*" << pack.size << flush;}else{continue;}//计算pts dts和duration。pack.pts = av_rescale_q(pack.pts, vc->time_base, vs->time_base);pack.dts = av_rescale_q(pack.dts, vc->time_base, vs->time_base);pack.duration = av_rescale_q(pack.duration, vc->time_base, vs->time_base);ret = av_interleaved_write_frame(ic, &pack);if (ret == 0){cout << "#" << flush;}}}catch (exception &ex){if (cam.isOpened())cam.release();if (vsc){sws_freeContext(vsc);vsc = NULL;}if (vc){avio_closep(&ic->pb);avcodec_free_context(&vc);}cerr << ex.what() << endl;}getchar();return 0;
}
原创作者:eric__
原文链接:https://www.jianshu.com/p/f83ef0a6f5cc
欢迎关注我的微信公众号「码农突围」,分享Python、Java、大数据、机器学习、人工智能等技术,关注码农技术提升•职场突围•思维跃迁,20万+码农成长充电第一站,陪有梦想的你一起成长
流媒体解码及H.264编码推流相关推荐
- 视频【编码】原理(H.264 librtmp推流),图像编码中sps ,pps ,nalu ,frame ,silce ect
视频编码格式:H264, VC-1, MPEG-2, MPEG4-ASP (Divx/Xvid), VP8, MJPEG 等. 音频编码格式:AAC, AC3, DTS(-HD), TrueHD, ...
- H.264编码下直播视频添加水印的优化
2016年被称为"中国网络直播元年",网络直播已成为网络文化领域重要的经营模式和文化市场的重要组成部分.而以"直播造人"事件为节点,直播行业进入了严格规范化的时 ...
- 【尖端干货】H.264编码下直播视频添加水印的优化
2016年被称为"中国网络直播元年",网络直播已成为网络文化领域重要的经营模式和文化市场的重要组成部分.而以"直播造人"事件为节点,直播行业进入了严格规范化的时 ...
- C++实现RTMP协议发送H.264编码及AAC编码的音视频
C++实现RTMP协议发送H.264编码及AAC编码的音视频 RTMP(Real Time Messaging Protocol)是专门用来传输音视频数据的流媒体协议,最初由Macromedia 公司 ...
- RTMP协议发送H.264编码及AAC编码的音视频,实现摄像头直播
RTMP协议发送H.264编码及AAC编码的音视频,实现摄像头直播 摘要: RTMP协议发送H.264编码及AAC编码的音视频,实现摄像头直播 RTMP(Real Time Messaging Pro ...
- 视频基础知识:浅谈视频会议中H.264编码标准的技术发展
浅谈视频会议中H.264编码标准的技术发展 浅谈视频会议中H.264编码标准的技术发展 数字视频技术广泛应用于通信.计算机.广播电视等领域,带来了会议电视.可视电话及数字电视.媒体存储等一系列应用,促 ...
- H.265编码和H.264编码的区别
目前很多摄像机采用了H.265的编码标准,H.264编码的摄像机逐渐减少,为什么H.265会流行?H.264和H.265有何不同? 一.什么是H.265 H.265是ITU-TVCEG继H.264之后 ...
- 开发那些事儿:在Flv.js前端播放器中解析并绘制H.264编码中的SEI信息
流媒体中的SEI是指补充增强信息(Supplemental Enhancement Information),它提供了向视频码流中加入信息的办法,是H.264/H.265视频压缩标准的特性之一.SEI ...
- H.264编码基础知识详解
一.编码基础概念 1.为什么要进行视频编码? 视频是由一帧帧图像组成,就如常见的gif图片,如果打开一张gif图片,可以发现里面是由很多张图片组成.一般视频为了不让观众感觉到卡顿,一秒钟至少需要16帧 ...
最新文章
- 收藏 | 应对程序员面试,你必须知道的8大数据结构
- 使用vb获取网页源文件并保存的简单代码
- 《Spring 3.0就这么简单》——1.6 展现层
- 数据库安全:不只是DAM
- Drawing绘图halcon算子,持续更新
- 在JavaScript中使用示例继续语句
- python登录豆瓣_python登录豆瓣,发帖
- Brief C Programs of the Bombs
- linux 7 nano,Linux初學(CnetOS Linux7)之文本編輯器nano以及關機
- 史上最NB程序员的自白
- 3.15	送货通知单
- 力扣题目——1557. 可以到达所有点的最少点数目
- 6.世界坐标观察模式
- HTML5线性图表 图表数据区域可着色
- QT QComBox详细用法 自定义QComboBox控件
- 原生ajax响应json数据
- 飞信2009_那个时代独有的目光局限——浅谈“飞信”的兴衰
- 用html、css实现网页聊天页面
- java编写投票功能需求分析
- 房产过户给子女,那种方式比较合适
热门文章
- 「经济读物」小岛经济学:鱼、美元和经济的故事
- 【C语言习题】统计君君提水的桶数(不使用ceil函数与floor函数)
- HTML5实现立方体及透视效果
- excel最强教科书电子版_Excel最强教科书(完全版全彩印刷)
- 芒德布罗集matlab程序,分形、噪声和状态变量
- 此主机支持 AMD-V,但 AMD-V 处于禁用状态。 如果已在 BIOS/固件设置中禁用 AMD-V,或主机自更改此设置后从未重新启动,则 AMD-V 可能被禁用。 (1) 确认 BIOS/固
- 学生网页作业 web网页设计实例作业 家乡旅游网站设计——家乡旅游-榆林子州(8页) 出游旅游主题度假酒店 计划出行网站设计
- OpenGL光和材质
- Java训练work3.Exer2---跳跃最大长度
- 【限时干货】数据圈火爆的数据产品文章全集