ffmpeg它是基于最新版本,在官网下载http://ffmpeg.zeranoe.com/builds/。编译时VS2010配置相关头文件及库的路径就可以。opencv的搭建參考上一个博客。

首先简介以下视频文件的相关知识。

我们平时看到的视频文件有很多格式,比方 avi。 mkv, rmvb, mov, mp4等等,这些被称为

容器Container)。 不同的容器格式规定了当中音视频数据的组织方式(也包含其他数据,比方字幕等)。容器中通常会封装有视频和音频轨,也称为视频流(stream)和音频 流。播放视频文件的第一步就是依据视频文件的格式。解析(demux)出当中封装的视频流、音频流以及字幕(假设有的话)。解析的数据读到包 (packet)中。每一个包里保存的是视频帧(frame)或音频帧。然后分别对视频帧和音频帧调用对应的解码器(decoder)进行解码,比方使用 H.264编码的视频和MP3编码的音频,会对应的调用H.264解码器和MP3解码器,解码之后得到的就是原始的图像(YUV or RGB)和声音(PCM)数据,然后依据同步好的时间将图像显示到屏幕上。将声音输出到声卡,终于就是我们看到的视频。

好好看下以下的文章,非常不错的。转载一部分:

有人会疑惑,为什么解码后的pFrame不直接用于显示,而是调用swscale()转换之后进行显示?

假设不进行转换,而是直接调用SDL进行显示的话,会发现显示出来的图像是混乱的。关键问题在于解码后的pFrame的linesize里存储的不是图像的宽度。而是比宽度大一些的一个值。其原因眼下还没有细致调查(大概是出于性能的考虑)。

比如分辨率为480x272的图像。解码后的视频的linesize[0]为512。而不是480。以第1行亮度像素(pFrame->data[0])为例,从0-480存储的是亮度数据,而从480-512则存储的是无效的数据。因此须要使用swscale()进行转换。转换后去除了无效数据,linesize[0]变为480。就能够正常显示了。

100行代码实现最简单的基于FFMPEG+SDL的视频播放器(SDL1.x)

以下直接看代码吧!

/*File : playvideo.cpp*Auth : sjin*Date : 20141029*Mail : 413977243@qq.com*/#include <stdio.h>
#include <cv.h>
#include <cxcore.h>
#include <highgui.h>
#ifdef __cplusplus
extern "C" {
#endif#include <libavformat/avformat.h>
#include <libavcodec/avcodec.h>
#include <libswscale/swscale.h>
#pragma comment (lib, "Ws2_32.lib")
#pragma comment (lib, "avcodec.lib")
#pragma comment (lib, "avdevice.lib")
#pragma comment (lib, "avfilter.lib")
#pragma comment (lib, "avformat.lib")
#pragma comment (lib, "avutil.lib")
#pragma comment (lib, "swresample.lib")
#pragma comment (lib, "swscale.lib")#ifdef __cplusplus
}
#endifstatic void CopyDate(AVFrame *pFrame,int width,int height,int time)
{if(time <=0 ) time = 1;int      nChannels;int       stepWidth;uchar  *  pData;  cv::Mat frameImage(cv::Size(width, height), CV_8UC3, cv::Scalar(0));stepWidth = frameImage.step;nChannels = frameImage.channels();pData = frameImage.data;for(int i = 0; i < height; i++){for(int j = 0; j < width; j++){pData[i * stepWidth + j * nChannels + 0] = pFrame->data[0][i * pFrame->linesize[0] + j * nChannels + 2];pData[i * stepWidth + j * nChannels + 1] = pFrame->data[0][i * pFrame->linesize[0] + j * nChannels + 1];pData[i * stepWidth + j * nChannels + 2] = pFrame->data[0][i * pFrame->linesize[0] + j * nChannels + 0];}}cv::namedWindow("Video", CV_WINDOW_AUTOSIZE);cv::imshow("Video", frameImage);cv::waitKey(time);
}static void SaveFrame(AVFrame *pFrame, int width, int height, int iFrame)
{FILE *pFile;char szFilename[32];int  y;// Open filesprintf(szFilename, "frame%d.ppm", iFrame);pFile=fopen(szFilename, "wb");if(pFile==NULL)return;// Write headerfprintf(pFile, "P6\n%d %d\n255\n", width, height);// Write pixel datafor(y=0; y<height; y++)fwrite(pFrame->data[0]+y*pFrame->linesize[0], 1, width*3, pFile);// Close filefclose(pFile);
}int main(int argc, char * argv[])
{AVFormatContext *pFormatCtx = NULL;int             i, videoStream;AVCodecContext  *pCodecCtx;AVCodec         *pCodec;AVFrame         *pFrame; AVFrame         *pFrameRGB;AVPacket        packet;int             frameFinished;int             numBytes;uint8_t         *buffer;/*注冊了全部的文件格式和编解码器的库*/av_register_all();// 打开视频文件/*这个函数读取文件的头部而且把信息保存到我们给的AVFormatContext结构体中。*第二个參数 要打开的文件路径*/if(avformat_open_input(&pFormatCtx, "test.264", NULL, NULL)!=0){return -1; // Couldn't open file}// 读取数据包获取流媒体文件的信息if(avformat_find_stream_info(pFormatCtx,NULL)<0){return -1; // Couldn't find stream information}//打印输入或输出格式的具体信息,如时间、比特率,溪流,容器,程序,元数据,基础数据,编解码器和时间。av_dump_format(pFormatCtx, 0, "test.264", false);//查找第一个视频流videoStream=-1;for(i = 0; i < pFormatCtx->nb_streams; i++){if(pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO){videoStream = i;break;}}if(videoStream == -1){//未发现视频流退出return -1; }//获得视频编解码器的上下文pCodecCtx = pFormatCtx->streams[videoStream]->codec;// 找到视频解码器pCodec = avcodec_find_decoder(pCodecCtx->codec_id);if(pCodec == NULL){//未发现视频编码器return -1; }// 打开视频解码器if(avcodec_open2(pCodecCtx, pCodec, 0) < 0){return -1; //打开失败退出}/*有些人可能会从旧的指导中记得有两个关于这些代码其他部分:*加入CODEC_FLAG_TRUNCATED到 pCodecCtx->flags和加入一个hack来粗糙的修正帧率。*这两个修正已经不在存在于ffplay.c中。因此,我必需假设它们不再必 要。

我们移除 *了那些代码后另一个须要指出的不同点:pCodecCtx->time_base如今已经保存了帧率 *的信息。time_base是一 个结构体,它里面有一个分子和分母 (AVRational)。我们使 *用分数的方式来表示帧率是由于非常多编解码器使用非整数的帧率(比如NTSC使用29.97fps)。 * *if(pCodecCtx->time_base.num > 1000 && pCodecCtx->time_base.den == 1){ * pCodecCtx->time_base.den = 1000; *} */ // 分配保存视频帧的空间 pFrame = avcodec_alloc_frame(); // 分配一个AVFrame结构 /*准备输出保存24位RGB色的PPM文件,我们必需把帧的格式从原来的转换为RGB。

FFMPEG将为我们做这些转换*/ pFrameRGB = avcodec_alloc_frame(); if(pFrameRGB==NULL){ return -1; } /*即使我们申请了一帧的内存,当转换的时候,我们仍然须要一个地方来放置原始的数据。 *我们使用avpicture_get_size来获得我们须要的大小。然后手工申请内存空间: */ numBytes = avpicture_get_size(PIX_FMT_RGB24, pCodecCtx->width, pCodecCtx->height); buffer = (uint8_t *)av_malloc( numBytes*sizeof(uint8_t)); // 基于指定的图像參数,设置图片字段所提供的图像数据缓冲区。 avpicture_fill((AVPicture *)pFrameRGB, buffer, PIX_FMT_RGB24,pCodecCtx->width, pCodecCtx->height); /*读取数据帧 *通过读取包来读取整个视频流,然后把它解码成帧,最好后转换格式而且保存。 */ i=0; long prepts = 0; while(av_read_frame(pFormatCtx, &packet) >= 0){ if(packet.stream_index == videoStream){/*推断读取的是否为须要的视频帧数据*/ // 解码视频帧 avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished, &packet); if(frameFinished){ static struct SwsContext *img_convert_ctx; #if 0 //就的转换模式已经废除 img_convert((AVPicture *)pFrameRGB, PIX_FMT_RGB24, (AVPicture*)pFrame, pCodecCtx->pix_fmt, pCodecCtx->width, pCodecCtx->height); #endif if(img_convert_ctx == NULL) { int w = pCodecCtx->width; int h = pCodecCtx->height; //分配和返回一个SwsContext。

您须要执行缩放/转换操作使用sws_scale()。 img_convert_ctx = sws_getContext(w, h, pCodecCtx->pix_fmt, w, h, PIX_FMT_RGB24, SWS_BICUBIC,NULL, NULL, NULL); if(img_convert_ctx == NULL) { fprintf(stderr, "Cannot initialize the conversion context!\n"); exit(1); } } 转换图像格式,将解压出来的YUV420P的图像转换为BRG24的图像 sws_scale(img_convert_ctx, pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameRGB->data, pFrameRGB->linesize); //保存前五帧数据 if(i++ <= 5){ SaveFrame(pFrameRGB, pCodecCtx->width, pCodecCtx->height, i); } CopyDate(pFrameRGB, pCodecCtx->width, pCodecCtx->height,packet.pts-prepts); prepts = packet.pts; } } //释放空间 av_free_packet(&packet); } //释放空间 av_free(buffer); av_free(pFrameRGB); // 释放 YUV frame av_free(pFrame); //关闭解码器 avcodec_close(pCodecCtx); //关闭视频文件 avformat_close_input(&pFormatCtx); system("Pause"); return 0; }

执行例如以下图:

參考资料:
http://www.cnblogs.com/dyllove98/archive/2013/07/03/3170272.html
http://blog.csdn.net/hsp494980719/article/details/7986400

版权声明:本文博客原创文章,博客,未经同意,不得转载。

转载于:https://www.cnblogs.com/bhlsheji/p/4638099.html

ffmpeg和opencv 播放视频文件和显示器相关推荐

  1. ffmpeg和opencv 播放视频文件并显示

    ffmpeg是基于最新版本,在官网下载http://ffmpeg.zeranoe.com/builds/.编译时VS2010配置相关头文件及库的路径即可.opencv的搭建参考上一个博客. 首先简单介 ...

  2. api c语言 播放视频,使用OpenCV播放视频文件(C/C++ API比较)

    OpenCV库很强大,不仅能够显示图片,还能解码显示各种格式的视频文件,而且提供的API接口也很多,包括C.C++.Python.下面比较一下分别使用C和C++播放一段视频文件的实现: C语言实现 $ ...

  3. OpenCV python 播放视频文件(.avi)

    OpenCV python 播放视频文件(.avi) 同文件夹存放文件[test.avi] import cv2def main():# 1.初始化读取视频对象cap = cv2.VideoCaptu ...

  4. Jrtplib发送视频文件 + FFMPEG解码+VFW播放视频 (回调方式)

    在上篇文章<Jrtplib收发H264文件 + FFMPEG解码+VFW播放视频> 里,我们采用的模式是发送端读取本地H264文件, 把完整的Naul(包含起始码) 逐个发送给接收端,接收 ...

  5. FFmpeg播放视频文件流程

    一.FFmpeg解码播放主要流程,如图1-1所示: 使用播放一个媒体文件时,通常需要经过以下几个步骤: 图1-1    FFmpeg 播放视频文件流程 1.解封装(Demuxing):就是将输入的封装 ...

  6. 使用ffmpeg播放视频文件的过程

    本文中,红色字体部分是涉及到的ffmpeg部分,其他函数是视频显示部分或者内部封装函数(文中没有给出实现). 本文的主要目的,在于记录播放视频文件时用到的ffmpeg函数,及其用法. typedef ...

  7. java opencv 读取视频_java使用OpenCV从视频文件中获取帧

    本文实例为大家分享了java使用OpenCV从视频文件中获取帧的具体代码,供大家参考,具体内容如下 实现功能:使用Java获取mp4.mov.avi等视频文件中的图像帧,每秒获取一帧图像,并保存 环境 ...

  8. OpenCV读写视频文件解析(二)

    OpenCV读写视频文件解析(二) VideoCapture::set 设置视频捕获中的属性. C++: bool VideoCapture::set(int propId, double value ...

  9. 【FFmpeg】ffplay 播放视频命令 ( 播放 | 暂停 | 停止 | 音量控制 | 进度控制 | 音频流 / 视频流 / 字幕流 / 节目切换 )

    FFmpeg 系列文章目录 [FFmpeg]Windows 搭建 FFmpeg 命令行运行环境 [FFmpeg]FFmpeg 相关术语简介 ( 容器 | 媒体流 | 数据帧 | 数据包 | 编解码器 ...

最新文章

  1. ON DUPLICATE KEY UPDATE 用法与说明
  2. 汇编编译器以及 DOSBox0.74的安装使用(虚拟)64位
  3. Python生成随机高斯模糊图片
  4. winform下自绘提示框风格窗体
  5. Java多线程学习九:怎样确定线程数量及CPU 核心数和线程数的关系||如何定制自己的线程池
  6. PHP移动互联网开发(1)——环境搭建及配置
  7. Map遍历KeySet()和EntrySet/ Map.forEach的性能分析
  8. 在线JSON校验格式化工具,文本对比工具,截图notepad工具
  9. td 提示暂无数据图片同上
  10. Mac安装JDK1.8及环境变量配置
  11. ”教你如何抓住短视频时代风口,进行流量红利变现
  12. Git克隆仓库代码至本地
  13. 手把手教你使用Vue搭建注册登录界面及前端源码
  14. 使用Natapp本地调试微信公众号H5
  15. 阿里云服务器延迟多少?测一下
  16. unity标准材质,emission的设置
  17. 数字华容道(C++)
  18. Sparse Merkle Tree
  19. css后台页面布局效果
  20. 最新Java设计模式之美

热门文章

  1. python os.exec
  2. python 链接数据库
  3. c++ 友元函数,友元类
  4. 计算机系统结构自学试卷,全国2004年4月高等教育自学考试计算机系统结构试题...
  5. 13号线ab线规划图_南宁地铁线最新规划(20202035年)!喜添8条轨道普线、1条环线和4条快线…...
  6. Linux操作系统各版本ISO镜像下载(包括oracle linux\redhat\centos\u
  7. Java基础学习总结(180)——如何保证API接口安全
  8. mysql重新创建测试对象的SQL_MySQL_Sql_打怪升级_进阶篇_测试: SQL随机生成测试数据...
  9. mysql导入库指令_mysql数据库指令导入导出
  10. oracle日期大于3个月,用三个月时间做oracle实验,养成实验习惯