ffplay.c学习-5-视频输出和尺⼨变换


目录

  1. 视频输出模块

    1. 视频输出初始化

      1. 视频输出初始化主要流程
      2. 初始化窗⼝显示⼤⼩
    2. 视频输出逻辑
      1. video_refresh
      2. 计算上⼀帧应显示的时⻓,判断是否继续显示上⼀帧
      3. 估算当前帧应显示的时⻓,判断是否要丢帧
      4. 调⽤video_display进⾏显示
        1. 根据映射表获取frame对应SDL中的像素格式
        2. 重新分配vid_texture
        3. 格式转换-复⽤或新分配⼀个SwsContext
        4. 图像显示
  2. 图像格式转换
    1. 函数说明

      1. sws_getContext
      2. sws_getCachedContext
      3. sws_scale
      4. sws_freeContext
    2. 具体转换
    3. ffmpeg中的sws_scale算法性能测试

1. 视频输出模块

  1. ffplay为了适应不同的平台,选择了SDL(跨平台)作为显示的SDK,以便在windows、linux、macos等不同平台上实现视频画⾯的显示。

    1. 视频(图像)输出初始化
    2. 视频(图像)输出逻辑
  2. 提出问题:

    1. 当窗⼝改变⼤⼩时由谁对原始数据(解码后的数据)进⾏缩放
    2. 当随意改变窗⼝的⼤⼩,为什么视频的宽⾼⽐例还能保持正常

1. 视频输出初始化

1. 视频输出初始化主要流程
  1. 我们开始分析视频(图像)的显示。
  2. 因为使⽤了SDL,⽽video的显示也依赖SDL的窗⼝显示系统,所以先从main函数的SDL初始化看起(节选):
/* Called from the main */
int main(int argc, char **argv) {...// 3. SDL的初始化flags = SDL_INIT_VIDEO | SDL_INIT_AUDIO | SDL_INIT_TIMER;/* 是否运行音频 */if (audio_disable)flags &= ~SDL_INIT_AUDIO;else {/* Try to work around an occasional ALSA buffer underflow issue when the* period size is NPOT due to ALSA resampling by forcing the buffer size. */if (!SDL_getenv("SDL_AUDIO_ALSA_SET_BUFFER_SIZE"))SDL_setenv("SDL_AUDIO_ALSA_SET_BUFFER_SIZE", "1", 1);}if (display_disable)flags &= ~SDL_INIT_VIDEO;if (SDL_Init(flags)) {av_log(NULL, AV_LOG_FATAL, "Could not initialize SDL - %s\n", SDL_GetError());av_log(NULL, AV_LOG_FATAL, "(Did you set the DISPLAY variable?)\n");exit(1);}SDL_EventState(SDL_SYSWMEVENT, SDL_IGNORE);SDL_EventState(SDL_USEREVENT, SDL_IGNORE);av_init_packet(&flush_pkt);                // 初始化flush_packetflush_pkt.data = (uint8_t *) &flush_pkt; // 初始化为数据指向自己本身// 4. 创建窗口if (!display_disable) {int flags = SDL_WINDOW_HIDDEN;if (alwaysontop)
#if SDL_VERSION_ATLEAST(2, 0, 5)flags |= SDL_WINDOW_ALWAYS_ON_TOP;
#elseav_log(NULL, AV_LOG_WARNING, "Your SDL version doesn't support SDL_WINDOW_ALWAYS_ON_TOP. Feature will be inactive.\n");
#endifif (borderless)flags |= SDL_WINDOW_BORDERLESS;elseflags |= SDL_WINDOW_RESIZABLE;window = SDL_CreateWindow(program_name, SDL_WINDOWPOS_UNDEFINED, SDL_WINDOWPOS_UNDEFINED, default_width,default_height, flags);SDL_SetHint(SDL_HINT_RENDER_SCALE_QUALITY, "linear");if (window) {// 创建rendererrenderer = SDL_CreateRenderer(window, -1, SDL_RENDERER_ACCELERATED | SDL_RENDERER_PRESENTVSYNC);if (!renderer) {av_log(NULL, AV_LOG_WARNING, "Failed to initialize a hardware accelerated renderer: %s\n",SDL_GetError());renderer = SDL_CreateRenderer(window, -1, 0);}if (renderer) {if (!SDL_GetRendererInfo(renderer, &renderer_info))av_log(NULL, AV_LOG_VERBOSE, "Initialized %s renderer.\n", renderer_info.name);}}if (!window || !renderer || !renderer_info.num_texture_formats) {av_log(NULL, AV_LOG_FATAL, "Failed to create window or renderer: %s", SDL_GetError());do_exit(NULL);}}// 5. 通过stream_open函数,开启read_thread读取线程is = stream_open(input_filename, file_iformat);if (!is) {av_log(NULL, AV_LOG_FATAL, "Failed to initialize VideoState!\n");do_exit(NULL);}// 6. 事件响应event_loop(is);/* never returns */return 0;
}
  1. main函数主要步骤如下:

    1. SDL_Init,主要是SDL_INIT_VIDEO的⽀持
    2. SDL_CreateWindow,创建主窗⼝
    3. SDL_CreateRender,基于主窗⼝创建renderer,⽤于渲染输出。
    4. stream_open
    5. event_loop,播放控制事件响应循环,但也负责了video显示输出。
  2. 我们之前在讲read_thread线程时,讲到了
    if (st_index[AVMEDIA_TYPE_VIDEO] >= 0) {AVStream *st = ic->streams[st_index[AVMEDIA_TYPE_VIDEO]];AVCodecParameters *codecpar = st->codecpar;//根据流和帧宽高比猜测视频帧的像素宽高比(像素的宽高比,注意不是图像的)AVRational sar = av_guess_sample_aspect_ratio(ic, st, NULL);if (codecpar->width) {// 设置显示窗口的大小和宽高比set_default_window_size(codecpar->width, codecpar->height, sar);}}
  1. 这⾥我们重点分析set_default_window_size的原理,该函数主要获取窗⼝的宽⾼,以及视频渲染的区域:
static void set_default_window_size(int width, int height, AVRational sar) {SDL_Rect rect;int max_width = screen_width ? screen_width : INT_MAX; // 确定是否指定窗口最大宽度int max_height = screen_height ? screen_height : INT_MAX; // 确定是否指定窗口最大高度if (max_width == INT_MAX && max_height == INT_MAX)max_height = height;    // 没有指定最大高度时则使用视频的高度calculate_display_rect(&rect, 0, 0, max_width, max_height, width, height, sar);default_width = rect.w; // 实际是渲染区域的宽高default_height = rect.h;
}
  1. screen_width和screen_height可以在ffplay启动时设置 -x screen_width -y screen_height获取指定的宽⾼,如果没有指定,则max_height = height,即是视频帧的⾼度。
  2. 重点在calculate_display_rect()函数。
2. 初始化窗⼝显示⼤⼩
  1. 接下来主要分析calculate_display_rect,根据传⼊的参数(int scr_xleft, int scr_ytop, int scr_width, int scr_height, int pic_width, int pic_height, AVRational pic_sar)获取显示区域的起始坐标和⼤⼩(rect)
/*** @brief 将帧宽高按照sar最大适配到窗口* @param rect      获取到的显示位置和宽高* @param scr_xleft 窗口显示起始x位置,这里说的是内部显示的坐标, 不是窗口在整个屏幕的起始位置* @param scr_ytop  窗口显示起始y位置* @param scr_width 窗口宽度* @param scr_height窗口高度* @param pic_width 显示帧宽度* @param pic_height显示帧高度* @param pic_sar   显示帧宽高比*/
static void calculate_display_rect(SDL_Rect *rect,int scr_xleft, int scr_ytop, int scr_width, int scr_height,int pic_width, int pic_height, AVRational pic_sar) {AVRational aspect_ratio = pic_sar; // 比率int64_t width, height, x, y;if (av_cmp_q(aspect_ratio, av_make_q(0, 1)) <= 0)aspect_ratio = av_make_q(1, 1);// 如果aspect_ratio是负数或者为0,设置为1:1// 转成真正的播放比例aspect_ratio = av_mul_q(aspect_ratio, av_make_q(pic_width, pic_height));/* XXX: we suppose the screen has a 1.0 pixel ratio */// 计算显示视频帧区域的宽高// 先以高度为基准height = scr_height;// &~1, 取偶数宽度  1110width = av_rescale(height, aspect_ratio.num, aspect_ratio.den) & ~1;if (width > scr_width) {// 当以高度为基准,发现计算出来的需要的窗口宽度不足时调整为以窗口宽度为基准width = scr_width;height = av_rescale(width, aspect_ratio.den, aspect_ratio.num) & ~1;}// 计算显示视频帧区域的起始坐标(在显示窗口内部的区域)x = (scr_width - width) / 2;y = (scr_height - height) / 2;rect->x = scr_xleft + x;rect->y = scr_ytop + y;rect->w = FFMAX((int) width, 1);rect->h = FFMAX((int) height, 1);
}
/*** Rational number (pair of numerator and denominator).*/
typedef struct AVRational{int num; ///< Numeratorint den; ///< Denominator
} AVRational;
  1. 注意视频显示尺⼨的计算:aspect_ratio = av_mul_q(aspect_ratio, av_make_q(pic_width, pic_height)); 计算出真正显示时需要的⽐例。

2. 视频输出逻辑

main() -- >
event_loop -->
refresh_loop_wait_event() -->
video_refresh() -->
video_display() -->
video_image_display() -->upload_texture()
  1. event_loop 开始处理SDL事件:
/* handle an event sent by the GUI */
static void event_loop(VideoState *cur_stream) {SDL_Event event;double incr, pos, frac;for (;;) {double x;refresh_loop_wait_event(cur_stream, &event); //video是在这里显示的switch (event.type) {case SDL_KEYDOWN:    /* 键盘事件 */if (exit_on_keydown || event.key.keysym.sym == SDLK_ESCAPE || event.key.keysym.sym == SDLK_q) {do_exit(cur_stream);break;}if (!cur_stream->width)continue;switch (event.key.keysym.sym) {case SDLK_f:toggle_full_screen(cur_stream);cur_stream->force_refresh = 1;break;........case SDL_QUIT:case FF_QUIT_EVENT:    /* ffplay自定义事件,用于主动退出 */do_exit(cur_stream);break;default:break;}}
}
  1. event_loop 的主要代码是⼀个主循环,主循环内执⾏:

    1. refresh_loop_wait_event
    2. 处理SDL事件队列中的事件。⽐如按空格键可以触发暂停/恢复,关闭窗⼝可以触发do_exit销毁播放现场。
  2. video的显示主要在 refresh_loop_wait_event :
static void refresh_loop_wait_event(VideoState *is, SDL_Event *event) {double remaining_time = 0.0; /* 休眠等待,remaining_time的计算在video_refresh中 *//* 调用SDL_PeepEvents前先调用SDL_PumpEvents,将输入设备的事件抽到事件队列中 */SDL_PumpEvents();/** SDL_PeepEvents check是否事件,比如鼠标移入显示区等* 从事件队列中拿一个事件,放到event中,如果没有事件,则进入循环中* SDL_PeekEvents用于读取事件,在调用该函数之前,必须调用SDL_PumpEvents搜集键盘等事件*/while (!SDL_PeepEvents(event, 1, SDL_GETEVENT, SDL_FIRSTEVENT, SDL_LASTEVENT)) {if (!cursor_hidden && av_gettime_relative() - cursor_last_shown > CURSOR_HIDE_DELAY) {SDL_ShowCursor(0);cursor_hidden = 1;}/** remaining_time就是用来进行音视频同步的。* 在video_refresh函数中,根据当前帧显示时刻(display time)和实际时刻(actual time)* 计算需要sleep的时间,保证帧按时显示*/if (remaining_time > 0.0)   //sleep控制画面输出的时机av_usleep((int64_t) (remaining_time * 1000000.0)); // remaining_time <= REFRESH_RATEremaining_time = REFRESH_RATE;if (is->show_mode != SHOW_MODE_NONE && // 显示模式不等于SHOW_MODE_NONE(!is->paused  // 非暂停状态|| is->force_refresh) // 强制刷新状态) {video_refresh(is, &remaining_time);}/* 从输入设备中搜集事件,推动这些事件进入事件队列,更新事件队列的状态,* 不过它还有一个作用是进行视频子系统的设备状态更新,如果不调用这个函数,* 所显示的视频会在大约10秒后丢失色彩。没有调用SDL_PumpEvents,将不会* 有任何的输入设备事件进入队列,这种情况下,SDL就无法响应任何的键盘等硬件输入。*/SDL_PumpEvents();}
}
  1. SDL_PeepEvents通过参数SDL_GETEVENT⾮阻塞查询队列中是否有事件。如果返回值不为0,表示有事件发⽣(或-1表示发⽣错误),那么函数就会返回,接着让event_loop处理事件;否则,就调⽤video_refresh显示画⾯,并通过输出参数remaining_time获取下⼀轮应当sleep的时间,以保持稳定的画⾯输出。
  2. 这⾥还有⼀个判断是否要调⽤video_refresh的前置条件。满⾜以下条件即可显示:
    1. 显示模式不为SHOW_MODE_NONE(如果⽂件中只有audio,也会显示其波形或者频谱图等)
    2. 或者,当前没有被暂停
    3. 或者,当前设置了force_refresh,我们分析force_refresh置为1的场景:
      a. video_refresh⾥⾯帧该显示,这个是常规情况;
      b. SDL_WINDOWEVENT_EXPOSED,窗⼝需要重新绘制
      c. SDL_MOUSEBUTTONDOWN && SDL_BUTTON_LEFT 连续⿏标左键点击2次显示窗⼝间隔⼩于0.5秒,进⾏全屏或者恢复原始窗⼝播放
      d. SDLK_f,按f键进⾏全屏或者恢复原始窗⼝播放
1. video_refresh
  1. 接下来,分析video显示的关键函数 video_refresh (经简化):
/* called to display each frame */
/* 非暂停或强制刷新的时候,循环调用video_refresh */
static void video_refresh(void *opaque, double *remaining_time) {VideoState *is = opaque;double time;Frame *sp, *sp2;if (!is->paused && get_master_sync_type(is) == AV_SYNC_EXTERNAL_CLOCK && is->realtime)check_external_clock_speed(is);if (!display_disable && is->show_mode != SHOW_MODE_VIDEO && is->audio_st) {time = av_gettime_relative() / 1000000.0;if (is->force_refresh || is->last_vis_time + rdftspeed < time) {video_display(is);is->last_vis_time = time;}*remaining_time = FFMIN(*remaining_time, is->last_vis_time + rdftspeed - time);}if (is->video_st) {retry:if (frame_queue_nb_remaining(&is->pictq) == 0) {// 帧队列是否为空// nothing to do, no picture to display in the queue// 什么都不做,队列中没有图像可显示} else { // 重点是音视频同步double last_duration, duration, delay;Frame *vp, *lastvp;/* dequeue the picture */// 从队列取出上一个Framelastvp = frame_queue_peek_last(&is->pictq);//读取上一帧vp = frame_queue_peek(&is->pictq);  // 读取待显示帧// lastvp 上一帧(正在显示的帧)// vp 等待显示的帧if (vp->serial != is->videoq.serial) {// 如果不是最新的播放序列,则将其出队列,以尽快读取最新序列的帧frame_queue_next(&is->pictq);goto retry;}if (lastvp->serial != vp->serial) {// 新的播放序列重置当前时间is->frame_timer = av_gettime_relative() / 1000000.0;}if (is->paused) {goto display;printf("视频暂停is->paused");}/* compute nominal last_duration *///lastvp上一帧,vp当前帧 ,nextvp下一帧//last_duration 计算上一帧应显示的时长last_duration = vp_duration(is, lastvp, vp);// 经过compute_target_delay方法,计算出待显示帧vp需要等待的时间// 如果以video同步,则delay直接等于last_duration。// 如果以audio或外部时钟同步,则需要比对主时钟调整待显示帧vp要等待的时间。delay = compute_target_delay(last_duration, is); // 上一帧需要维持的时间time = av_gettime_relative() / 1000000.0;// is->frame_timer 实际上就是上一帧lastvp的播放时间,// is->frame_timer + delay 是待显示帧vp该播放的时间if (time < is->frame_timer + delay) { //判断是否继续显示上一帧// 当前系统时刻还未到达上一帧的结束时刻,那么还应该继续显示上一帧。// 计算出最小等待时间*remaining_time = FFMIN(is->frame_timer + delay - time, *remaining_time);goto display;}// 走到这一步,说明已经到了或过了该显示的时间,待显示帧vp的状态变更为当前要显示的帧is->frame_timer += delay;   // 更新当前帧播放的时间if (delay > 0 && time - is->frame_timer > AV_SYNC_THRESHOLD_MAX) {is->frame_timer = time; //如果和系统时间差距太大,就纠正为系统时间}SDL_LockMutex(is->pictq.mutex);if (!isnan(vp->pts))update_video_pts(is, vp->pts, vp->pos, vp->serial); // 更新video时钟SDL_UnlockMutex(is->pictq.mutex);//丢帧逻辑if (frame_queue_nb_remaining(&is->pictq) > 1) {//有nextvp才会检测是否该丢帧Frame *nextvp = frame_queue_peek_next(&is->pictq);duration = vp_duration(is, vp, nextvp);if (!is->step        // 非逐帧模式才检测是否需要丢帧 is->step==1 为逐帧播放&& (framedrop > 0 ||      // cpu解帧过慢(framedrop && get_master_sync_type(is) != AV_SYNC_VIDEO_MASTER)) // 非视频同步方式&& time > is->frame_timer + duration // 确实落后了一帧数据) {printf("%s(%d) dif:%lfs, drop frame\n", __FUNCTION__, __LINE__,(is->frame_timer + duration) - time);is->frame_drops_late++;             // 统计丢帧情况frame_queue_next(&is->pictq);       // 这里实现真正的丢帧//(这里不能直接while丢帧,因为很可能audio clock重新对时了,这样delay值需要重新计算)goto retry; //回到函数开始位置,继续重试}}if (is->subtitle_st) {while (frame_queue_nb_remaining(&is->subpq) > 0) {sp = frame_queue_peek(&is->subpq);if (frame_queue_nb_remaining(&is->subpq) > 1)sp2 = frame_queue_peek_next(&is->subpq);elsesp2 = NULL;if (sp->serial != is->subtitleq.serial|| (is->vidclk.pts > (sp->pts + ((float) sp->sub.end_display_time / 1000)))|| (sp2 && is->vidclk.pts > (sp2->pts + ((float) sp2->sub.start_display_time / 1000)))) {if (sp->uploaded) {int i;for (i = 0; i < sp->sub.num_rects; i++) {AVSubtitleRect *sub_rect = sp->sub.rects[i];uint8_t *pixels;int pitch, j;if (!SDL_LockTexture(is->sub_texture, (SDL_Rect *) sub_rect, (void **) &pixels,&pitch)) {for (j = 0; j < sub_rect->h; j++, pixels += pitch)memset(pixels, 0, sub_rect->w << 2);SDL_UnlockTexture(is->sub_texture);}}}frame_queue_next(&is->subpq);} else {break;}}}frame_queue_next(&is->pictq);   // 当前vp帧出队列is->force_refresh = 1;          /* 说明需要刷新视频帧 */if (is->step && !is->paused)stream_toggle_pause(is);    // 逐帧的时候那继续进入暂停状态}display:/* display picture */if (!display_disable && is->force_refresh && is->show_mode == SHOW_MODE_VIDEO && is->pictq.rindex_shown)video_display(is); // 重点是显示}is->force_refresh = 0;if (show_status) {static int64_t last_time;int64_t cur_time;int aqsize, vqsize, sqsize;double av_diff;cur_time = av_gettime_relative();if (!last_time || (cur_time - last_time) >= 30000) {aqsize = 0;vqsize = 0;sqsize = 0;if (is->audio_st)aqsize = is->audioq.size;if (is->video_st)vqsize = is->videoq.size;if (is->subtitle_st)sqsize = is->subtitleq.size;av_diff = 0;if (is->audio_st && is->video_st)av_diff = get_clock(&is->audclk) - get_clock(&is->vidclk);else if (is->video_st)av_diff = get_master_clock(is) - get_clock(&is->vidclk);else if (is->audio_st)av_diff = get_master_clock(is) - get_clock(&is->audclk);av_log(NULL, AV_LOG_INFO,"%7.2f %s:%7.3f fd=%4d aq=%5dKB vq=%5dKB sq=%5dB f=%"PRId64"/%"PRId64"   \r",get_master_clock(is),(is->audio_st && is->video_st) ? "A-V" : (is->video_st ? "M-V" : (is->audio_st ? "M-A" : "   ")),av_diff,is->frame_drops_early + is->frame_drops_late,aqsize / 1024,vqsize / 1024,sqsize,is->video_st ? is->viddec.avctx->pts_correction_num_faulty_dts : 0,is->video_st ? is->viddec.avctx->pts_correction_num_faulty_pts : 0);fflush(stdout);last_time = cur_time;}}
}
  1. 函数中涉及到FrameQueue中的3个节点是lastvp, vp, nextvp,其中:

    1. vp这次将要显示的⽬标帧(待显示帧)
    2. lastvp是已经显示了的帧(也是当前屏幕上看到的帧)
    3. nextvp是下⼀次要显示的帧(排在vp后⾯)。
  2. 取出其前⾯⼀帧与后⾯⼀帧,是为了通过pts准确计算duration。duration的计算通过函数 vp_duration完成:
// 计算上一帧需要持续的duration,这里有校正算法
static double vp_duration(VideoState *is, Frame *vp, Frame *nextvp) {if (vp->serial == nextvp->serial) { // 同一播放序列,序列连续的情况下double duration = nextvp->pts - vp->pts;if (isnan(duration) // duration 数值异常|| duration <= 0    // pts值没有递增时|| duration > is->max_frame_duration    // 超过了最大帧范围) {return vp->duration;     /* 异常时以帧时间为基准(1秒/帧率) */} else {return duration; //使用两帧pts差值计算duration,一般情况下也是走的这个分支}} else {        // 不同播放序列, 序列不连续则返回0return 0.0;}
}
  1. video_refresh 的主要流程如下:
  2. 先来看下上⾯流程图中的主流程——即中间⼀列框图。从框图进⼀步抽象, video_refresh 的主体流程分为3个步骤:
    1. 取出上⼀帧lastvp和待显示的帧vip;
    2. 计算上⼀帧lastvp应显示的时⻓,判断是否继续显示上⼀帧;
    3. 估算当前帧应显示的时⻓,判断是否要丢帧
    4. 调⽤video_display进⾏显示
  3. video_display 会调⽤ frame_queue_peek_last 获取上次显示的frame(lastvp),并显示。所以在 video_refresh 中如果流程直接⾛到 video_display 就会显示 lastvp (需要注意的是在此时如果不是触发了force_refresh,则不会去重新取lastvp进⾏重新渲染),如果先调⽤ frame_queue_next再调⽤ video_display ,那么就会显示 vp。
  4. 下⾯我们具体分析这3个步骤,并和流程图与代码进⾏对应阅读。
2. 计算上⼀帧应显示的时⻓,判断是否继续显示上⼀帧
  1. ⾸先检查pictq是否为空(调⽤ frame_queue_nb_remaining 判断队列中是否有未显示的帧),如果为空,则调⽤ video_display (显示上⼀帧)。
  2. 在进⼀步准确计算上⼀帧应显示时间前,需要先判断 frame_queue_peek 获取的 vp 是否是最新序列——即 if (vp->serial != is->videoq.serial) ,如果条件成⽴,说明发⽣过seek等操作,流不连续,应该抛弃lastvp。故调⽤ frame_queue_next 抛弃lastvp后,返回流程开头重试下⼀轮。
  3. 接下来可以计算准确的 lastvp 应显示时⻓了。计算应显示时间的代码是:
            /* compute nominal last_duration *///lastvp上一帧,vp当前帧 ,nextvp下一帧//last_duration 计算上一帧应显示的时长last_duration = vp_duration(is, lastvp, vp);// 经过compute_target_delay方法,计算出待显示帧vp需要等待的时间// 如果以video同步,则delay直接等于last_duration。// 如果以audio或外部时钟同步,则需要比对主时钟调整待显示帧vp要等待的时间。delay = compute_target_delay(last_duration, is);
  1. 直观理解,主要基于 vp_duration 计算两帧pts差,即帧持续时间,即可。但是,如果考虑到同步,⽐如视频同步到⾳频,则还需要考虑当前与主时钟的差距,进⽽决定是重复上⼀帧还是丢帧,还是正常显示下⼀帧(待显示帧vp)。对于涉及到的⾳视频同步问题(compute_target_delay),在⾳视频同步分析课程再做精讲。这⾥只需要理解通过以上两步就可以计算出准确的上⼀帧应显示时⻓了。
  2. 最后,根据上⼀帧应显示时⻓(delay变量),确定是否继续显示上⼀帧:
            time= av_gettime_relative()/1000000.0;// is->frame_timer 实际上就是上一帧lastvp的播放时间,// is->frame_timer + delay 是待显示帧vp该播放的时间if (time < is->frame_timer + delay) { //判断是否继续显示上一帧// 当前系统时刻还未到达上一帧的结束时刻,那么还应该继续显示上一帧。// 计算出最小等待时间*remaining_time = FFMIN(is->frame_timer + delay - time, *remaining_time);goto display;}

3. 估算当前帧应显示的时⻓,判断是否要丢帧
  1. 这个步骤执⾏前,还需要⼀点准备⼯作:更新frame_timer和更新vidclk
            // 走到这一步,说明已经到了或过了该显示的时间,待显示帧vp的状态变更为当前要显示的帧is->frame_timer += delay;   // 更新当前帧播放的时间if (delay > 0 && time - is->frame_timer > AV_SYNC_THRESHOLD_MAX) {is->frame_timer = time; //如果和系统时间差距太大,就纠正为系统时间}SDL_LockMutex(is->pictq.mutex);if (!isnan(vp->pts))update_video_pts(is, vp->pts, vp->pos, vp->serial); // 更新video时钟SDL_UnlockMutex(is->pictq.mutex);
  1. 关于vidclk的作⽤在⾳视频同步章节中分析。
  2. 接下来就可以判断是否要丢帧了:
            //丢帧逻辑if (frame_queue_nb_remaining(&is->pictq) > 1) {//有nextvp才会检测是否该丢帧Frame *nextvp = frame_queue_peek_next(&is->pictq);duration = vp_duration(is, vp, nextvp);if(!is->step        // 非逐帧模式才检测是否需要丢帧 is->step==1 为逐帧播放&& (framedrop>0 ||      // cpu解帧过慢(framedrop && get_master_sync_type(is) != AV_SYNC_VIDEO_MASTER)) // 非视频同步方式&& time > is->frame_timer + duration // 确实落后了一帧数据) {printf("%s(%d) dif:%lfs, drop frame\n", __FUNCTION__, __LINE__,(is->frame_timer + duration) - time);is->frame_drops_late++;             // 统计丢帧情况frame_queue_next(&is->pictq);       // 这里实现真正的丢帧//(这里不能直接while丢帧,因为很可能audio clock重新对时了,这样delay值需要重新计算)goto retry; //回到函数开始位置,继续重试}}
  1. 丢帧的代码也⽐较简单,只需要 frame_queue_next ,然后retry。
  2. 丢帧的前提条件是frame_queue_nb_remaining(&is->pictq) > 1,即是要有nextvp,且需要同时满⾜以下条件:
    1. 不处于step状态。换⾔之,如果当前是step状态,不会触发丢帧逻辑。(step⽤于pause状态下进⾏seek操作时,于seek操作结束后显示seek后的⼀帧画⾯,⽤于直观体现seek⽣效了)
    2. 启⽤framedrop机制,或⾮AV_SYNC_VIDEO_MASTER(不是以video为同步)。
    3. 时间已⼤于frame_timer + duration,已经超过该帧该显示的时⻓
4. 调⽤video_display进⾏显示
  1. 如果既不需要重复上⼀帧,也不需要抛弃当前帧,那么就可以安⼼显示当前帧了。之前有顺带提过video_display 中显示的是 frame_queue_peek_last ,所以需要先调⽤ frame_queue_next ,移动pictq内的指针,将vp变成shown,确保 frame_queue_peek_last 取到的是vp。
  2. 接下来看下 video_display :
/* display the current picture, if any */
static void video_display(VideoState *is)
{if (!is->width)video_open(is); //如果窗口未显示,则显示窗口SDL_SetRenderDrawColor(renderer, 0, 0, 0, 255);SDL_RenderClear(renderer);if (is->audio_st && is->show_mode != SHOW_MODE_VIDEO)video_audio_display(is);    //图形化显示仅有音轨的文件else if (is->video_st)video_image_display(is);    //显示一帧视频画面SDL_RenderPresent(renderer);
}
  1. 假设读者已初步了解SDL接⼝的使⽤,我们直接看 video_image_display :
static void video_image_display(VideoState *is)
{Frame *vp;Frame *sp = NULL;SDL_Rect rect;// keep_last的作用就出来了,我们是有调用frame_queue_next, 但最近出队列的帧并没有真正销毁// 所以这里可以读取出来显示vp = frame_queue_peek_last(&is->pictq);if (is->subtitle_st) {// 字幕显示逻辑}}//将帧宽高按照sar最大适配到窗口,并通过rect返回视频帧在窗口的显示位置和宽高calculate_display_rect(&rect, is->xleft, is->ytop, is->width, is->height,vp->width, vp->height, vp->sar);
//    rect.x = rect.w /2;   // 测试
//    rect.w = rect.w /2;   // 缩放实际不是用sws, 缩放是sdl去做的if (!vp->uploaded) {// 把yuv数据更新到vid_textureif (upload_texture(&is->vid_texture, vp->frame, &is->img_convert_ctx) < 0)return;vp->uploaded = 1;vp->flip_v = vp->frame->linesize[0] < 0;}set_sdl_yuv_conversion_mode(vp->frame);SDL_RenderCopyEx(renderer, is->vid_texture, NULL, &rect, 0, NULL, vp->flip_v ? SDL_FLIP_VERTICAL : 0);set_sdl_yuv_conversion_mode(NULL);if (sp) {#if USE_ONEPASS_SUBTITLE_RENDERSDL_RenderCopy(renderer, is->sub_texture, NULL, &rect);
#elseint i;double xratio = (double)rect.w / (double)sp->width;double yratio = (double)rect.h / (double)sp->height;for (i = 0; i < sp->sub.num_rects; i++) {SDL_Rect *sub_rect = (SDL_Rect*)sp->sub.rects[i];SDL_Rect target = {.x = rect.x + sub_rect->x * xratio,.y = rect.y + sub_rect->y * yratio,.w = sub_rect->w * xratio,.h = sub_rect->h * yratio};SDL_RenderCopy(renderer, is->sub_texture, sub_rect, &target);}
#endif}
}
  1. 如果了解了SDL的显示, video_image_display 的逻辑不算复杂,即先 frame_queue_peek_last取要显示帧,然后 upload_texture 更新到SDL_Texture,最后通过 SDL_RenderCopyEx 拷⻉纹理给render显示。
  2. 最后,了解下 upload_texture 具体是如何将AVFormat的图像数据传给sdl的纹理:
static int upload_texture(SDL_Texture **tex, AVFrame *frame, struct SwsContext **img_convert_ctx) {int ret = 0;Uint32 sdl_pix_fmt;SDL_BlendMode sdl_blendmode;// 根据frame中的图像格式(FFmpeg像素格式),获取对应的SDL像素格式和blendmodeget_sdl_pix_fmt_and_blendmode(frame->format, &sdl_pix_fmt, &sdl_blendmode);// 参数tex实际是&is->vid_texture,此处根据得到的SDL像素格式,为&is->vid_textureif (realloc_texture(tex, sdl_pix_fmt == SDL_PIXELFORMAT_UNKNOWN ? SDL_PIXELFORMAT_ARGB8888 : sdl_pix_fmt,frame->width, frame->height, sdl_blendmode, 0) < 0)return -1;//根据sdl_pix_fmt从AVFrame中取数据填充纹理switch (sdl_pix_fmt) {// frame格式是SDL不支持的格式,则需要进行图像格式转换,转换为目标格式AV_PIX_FMT_BGRA,// 对应SDL_PIXELFORMAT_BGRA32case SDL_PIXELFORMAT_UNKNOWN:/* This should only happen if we are not using avfilter... */*img_convert_ctx = sws_getCachedContext(*img_convert_ctx,frame->width, frame->height, frame->format,frame->width, frame->height, AV_PIX_FMT_BGRA,sws_flags, NULL, NULL, NULL);if (*img_convert_ctx != NULL) {uint8_t *pixels[4]; // 之前取Texture的缓存int pitch[4];if (!SDL_LockTexture(*tex, NULL, (void **)pixels, pitch)) {sws_scale(*img_convert_ctx, (const uint8_t * const *)frame->data, frame->linesize,0, frame->height, pixels, pitch);SDL_UnlockTexture(*tex);}} else {av_log(NULL, AV_LOG_FATAL, "Cannot initialize the conversion context\n");ret = -1;}break;// frame格式对应SDL_PIXELFORMAT_IYUV,不用进行图像格式转换,调用SDL_UpdateYUVTexture()更新SDL texturecase SDL_PIXELFORMAT_IYUV:if (frame->linesize[0] > 0 && frame->linesize[1] > 0 && frame->linesize[2] > 0) {ret = SDL_UpdateYUVTexture(*tex, NULL, frame->data[0], frame->linesize[0],frame->data[1], frame->linesize[1],frame->data[2], frame->linesize[2]);} else if (frame->linesize[0] < 0 && frame->linesize[1] < 0 && frame->linesize[2] < 0) {ret = SDL_UpdateYUVTexture(*tex, NULL, frame->data[0] + frame->linesize[0] * (frame->height                    - 1), -frame->linesize[0],frame->data[1] + frame->linesize[1] * (AV_CEIL_RSHIFT(frame->height, 1) - 1), -frame->linesize[1],frame->data[2] + frame->linesize[2] * (AV_CEIL_RSHIFT(frame->height, 1) - 1), -frame->linesize[2]);} else {av_log(NULL, AV_LOG_ERROR, "Mixed negative and positive linesizes are not supported.\n");return -1;}break;// frame格式对应其他SDL像素格式,不用进行图像格式转换,调用SDL_UpdateTexture()更新SDL texturedefault:if (frame->linesize[0] < 0) {ret = SDL_UpdateTexture(*tex, NULL, frame->data[0] + frame->linesize[0] * (frame->height - 1), -frame->linesize[0]);} else {ret = SDL_UpdateTexture(*tex, NULL, frame->data[0], frame->linesize[0]);}break;}return ret;
}
  1. frame中的像素格式是FFmpeg中定义的像素格式,FFmpeg中定义的很多像素格式和SDL中定义的很多像素格式其实是同⼀种格式,只名称不同⽽已。
  2. 根据frame中的像素格式与SDL⽀持的像素格式的匹配情况,upload_texture()处理三种类型,对应switch语句的三个分⽀:
    1. 如果frame图像格式对应SDL_PIXELFORMAT_IYUV格式,不进⾏图像格式转换,使⽤SDL_UpdateYUVTexture() 将图像数据更新到 &is->vid_texture
    2. 如果frame图像格式对应其他被SDL⽀持的格式(诸如AV_PIX_FMT_RGB32),也不进⾏图像格式转换,使⽤ SDL_UpdateTexture() 将图像数据更新到 &is->vid_texture
  3. 如果frame图像格式不被SDL⽀持(即对应SDL_PIXELFORMAT_UNKNOWN),则需要进⾏图像格式转换。
  4. 1、2两种类型不进⾏图像格式转换。我们考虑第3种情况(格式转换具体函数分析在 图像格式转换)
1. 根据映射表获取frame对应SDL中的像素格式
  1. get_sdl_pix_fmt_and_blendmode()
  2. 这个函数的作⽤,获取输⼊参数 format (FFmpeg像素格式)在SDL中的像素格式,取到的SDL像素格式存在输出参数 sdl_pix_fmt 中
static void get_sdl_pix_fmt_and_blendmode(int format, Uint32 *sdl_pix_fmt, SDL_BlendMode *sdl_blendmode)
{int i;*sdl_blendmode = SDL_BLENDMODE_NONE;*sdl_pix_fmt = SDL_PIXELFORMAT_UNKNOWN;if (format == AV_PIX_FMT_RGB32   ||format == AV_PIX_FMT_RGB32_1 ||format == AV_PIX_FMT_BGR32   ||format == AV_PIX_FMT_BGR32_1)*sdl_blendmode = SDL_BLENDMODE_BLEND;for (i = 0; i < FF_ARRAY_ELEMS(sdl_texture_format_map) - 1; i++) {if (format == sdl_texture_format_map[i].format) {*sdl_pix_fmt = sdl_texture_format_map[i].texture_fmt;return;}}
}
  1. 在ffplay.c中定义了⼀个表 sdl_texture_format_map[] ,其中定义了FFmpeg中⼀些像素格式与SDL像素格式的映射关系,如下:
static const struct TextureFormatEntry {enum AVPixelFormat format;int texture_fmt;
} sdl_texture_format_map[] = {  // FFmpeg PIX_FMT to SDL_PIX的映射关系{ AV_PIX_FMT_RGB8,           SDL_PIXELFORMAT_RGB332 },{ AV_PIX_FMT_RGB444,         SDL_PIXELFORMAT_RGB444 },{ AV_PIX_FMT_RGB555,         SDL_PIXELFORMAT_RGB555 },{ AV_PIX_FMT_BGR555,         SDL_PIXELFORMAT_BGR555 },{ AV_PIX_FMT_RGB565,         SDL_PIXELFORMAT_RGB565 },{ AV_PIX_FMT_BGR565,         SDL_PIXELFORMAT_BGR565 },{ AV_PIX_FMT_RGB24,          SDL_PIXELFORMAT_RGB24 },{ AV_PIX_FMT_BGR24,          SDL_PIXELFORMAT_BGR24 },{ AV_PIX_FMT_0RGB32,         SDL_PIXELFORMAT_RGB888 },{ AV_PIX_FMT_0BGR32,         SDL_PIXELFORMAT_BGR888 },{ AV_PIX_FMT_NE(RGB0, 0BGR), SDL_PIXELFORMAT_RGBX8888 },{ AV_PIX_FMT_NE(BGR0, 0RGB), SDL_PIXELFORMAT_BGRX8888 },{ AV_PIX_FMT_RGB32,          SDL_PIXELFORMAT_ARGB8888 },{ AV_PIX_FMT_RGB32_1,        SDL_PIXELFORMAT_RGBA8888 },{ AV_PIX_FMT_BGR32,          SDL_PIXELFORMAT_ABGR8888 },{ AV_PIX_FMT_BGR32_1,        SDL_PIXELFORMAT_BGRA8888 },{ AV_PIX_FMT_YUV420P,        SDL_PIXELFORMAT_IYUV },{ AV_PIX_FMT_YUYV422,        SDL_PIXELFORMAT_YUY2 },{ AV_PIX_FMT_UYVY422,        SDL_PIXELFORMAT_UYVY },{ AV_PIX_FMT_NONE,           SDL_PIXELFORMAT_UNKNOWN },
};
  1. 可以看到,除了最后⼀项,其他格式的图像送给SDL是可以直接显示的,不必进⾏图像转换。
  2. 关于这些像素格式的含义,可参考 附录:⾊彩空间与像素格式
2. 重新分配vid_texture
  1. realloc_texture()
  2. 根据新得到的SDL像素格式,为 &is->vid_texture 重新分配空间,如下所示,先SDL_DestroyTexture() 销毁,再 SDL_CreateTexture() 创建。
static int realloc_texture(SDL_Texture **texture, Uint32 new_format, int new_width, int new_height,SDL_BlendMode blendmode, int init_texture)
{Uint32 format;int access, w, h;if (!*texture || SDL_QueryTexture(*texture, &format, &access, &w, &h) < 0 || new_width != w || new_height != h || new_format != format) {void *pixels;int pitch;if (*texture)SDL_DestroyTexture(*texture);if (!(*texture = SDL_CreateTexture(renderer, new_format, SDL_TEXTUREACCESS_STREAMING, new_width, new_height)))return -1;if (SDL_SetTextureBlendMode(*texture, blendmode) < 0)return -1;if (init_texture) {if (SDL_LockTexture(*texture, NULL, &pixels, &pitch) < 0)return -1;memset(pixels, 0, pitch * new_height);SDL_UnlockTexture(*texture);}av_log(NULL, AV_LOG_VERBOSE, "Created %dx%d texture with %s.\n", new_width, new_height, SDL_GetPixelFormatName(new_format));}return 0;
}
  1. 什么情况下realloc_texture?

    1. ⽤于显示的texture 还没有分配;
    2. SDL_QueryTexture⽆效;
    3. ⽬前texture的width,height、format和新要显示的Frame不⼀致
  2. 从上分析可以看出,窗⼝⼤⼩的变化不⾜以让realloc_texture重新SDL_CreateTexture。

3. 格式转换-复⽤或新分配⼀个SwsContext
  1. sws_getCachedContext()
        // frame格式是SDL不支持的格式,则需要进行图像格式转换,转换为目标格式AV_PIX_FMT_BGRA,// 对应SDL_PIXELFORMAT_BGRA32case SDL_PIXELFORMAT_UNKNOWN:/* This should only happen if we are not using avfilter... */*img_convert_ctx = sws_getCachedContext(*img_convert_ctx,frame->width, frame->height, frame->format,frame->width, frame->height, AV_PIX_FMT_BGRA,sws_flags, NULL, NULL, NULL);
  1. 检查输⼊参数,第⼀个输⼊参数 *img_convert_ctx 对应形参 struct SwsContext *context 。如果context是NULL,调⽤ sws_getContext() 重新获取⼀个context。
  2. 如果context不是NULL,检查其他项输⼊参数是否和context中存储的各参数⼀样,若不⼀样,则先释放context再按照新的输⼊参数重新分配⼀个context。若⼀样,直接使⽤现有的context。
4. 图像显示
  1. texture对应⼀帧待显示的图像数据,得到texture后,执⾏如下步骤即可显示:

    1. SDL_RenderClear(); // 使⽤特定颜⾊清空当前渲染⽬标
    2. SDL_RenderCopy(); // 使⽤部分图像数据(texture)更新当前渲染⽬标
    3. SDL_RenderCopyEx(); // 和SDL_RenderCopy类似,但⽀持旋转
    4. SDL_RenderPresent(sdl_renderer); // 执⾏渲染,更新屏幕显示

2. 图像格式转换

  1. FFmpeg中的 sws_scale() 函数主要是⽤来做视频像素格式和分辨率的转换,其优势在于:可以在同⼀个函数⾥实现:1.图像⾊彩空间转换, 2:分辨率缩放,3:前后图像滤波处理。不⾜之处在于:效率相对较低,不如libyuv或shader,其关联的函数主要有:

    1. sws_getContext:分配和返回⼀个SwsContext,需要传⼊输⼊参数和输出参数;
    2. sws_getCachedContext:检查传⼊的上下⽂是否可以⽤,如果不可⽤则重新分配⼀个,如果可⽤则返回传⼊的;
    3. sws_freeContext:释放SwsContext结构体。
    4. sws_scale:转换⼀帧图像;

1. 函数说明

1. sws_getContext
/*** Allocate and return an SwsContext. You need it to perform* scaling/conversion operations using sws_scale().** @param srcW the width of the source image* @param srcH the height of the source image* @param srcFormat the source image format* @param dstW the width of the destination image* @param dstH the height of the destination image* @param dstFormat the destination image format* @param flags specify which algorithm and options to use for rescaling* @param param extra parameters to tune the used scaler*              For SWS_BICUBIC param[0] and [1] tune the shape of the basis*              function, param[0] tunes f(1) and param[1] f´(1)*              For SWS_GAUSS param[0] tunes the exponent and thus cutoff*              frequency*              For SWS_LANCZOS param[0] tunes the width of the window function* @return a pointer to an allocated context, or NULL in case of error* @note this function is to be removed after a saner alternative is*       written*/
struct SwsContext *sws_getContext(int srcW, int srcH, enum AVPixelFormat srcFormat,int dstW, int dstH, enum AVPixelFormat dstFormat,int flags, SwsFilter *srcFilter,SwsFilter *dstFilter, const double *param);
  1. 第⼀参数可以传NULL,默认会开辟⼀块新的空间。
  2. srcW,srcH, srcFormat, 原始数据的宽⾼和原始像素格式(YUV420),
  3. dstW,dstH,dstFormat; ⽬标宽,⽬标⾼,⽬标的像素格式(这⾥的宽⾼可能是⼿机屏幕分辨率,RGBA8888),这⾥不仅仅包含了尺⼨的转换和像素格式的转换
  4. flag 提供了⼀系列的算法,快速线性,差值,矩阵,不同的算法性能也不同,快速线性算法性能相对较
    ⾼。只针对尺⼨的变换。对像素格式转换⽆此问题
/* values for the flags, the stuff on the command line is different */
#define SWS_FAST_BILINEAR     1
#define SWS_BILINEAR          2
#define SWS_BICUBIC           4
#define SWS_X                 8
#define SWS_POINT          0x10
#define SWS_AREA           0x20
#define SWS_BICUBLIN       0x40
#define SWS_GAUSS          0x80
#define SWS_SINC          0x100
#define SWS_LANCZOS       0x200
#define SWS_SPLINE        0x400
  1. 不同算法的效率⻅《10.3 ffmpeg中的sws_scale算法性能测试》⼩节。
  2. 后⾯还有两个参数是做过滤器⽤的,⼀般⽤不到,传NULL,最后⼀个参数是跟flag算法相关,也可以传NULL。
2. sws_getCachedContext
/*** Check if context can be reused, otherwise reallocate a new one.** If context is NULL, just calls sws_getContext() to get a new* context. Otherwise, checks if the parameters are the ones already* saved in context. If that is the case, returns the current* context. Otherwise, frees context and gets a new context with* the new parameters.** Be warned that srcFilter and dstFilter are not checked, they* are assumed to remain the same.*/
struct SwsContext *sws_getCachedContext(struct SwsContext *context,int srcW, int srcH, enum AVPixelFormat srcFormat,int dstW, int dstH, enum AVPixelFormat dstFormat,int flags, SwsFilter *srcFilter,SwsFilter *dstFilter, const double *param);
int srcW, /* 输⼊图像的宽度 */
int srcH, /* 输⼊图像的宽度 */
enum AVPixelFormat srcFormat, /* 输⼊图像的像素格式 */
int dstW, /* 输出图像的宽度 */
int dstH, /* 输出图像的⾼度 */
enum AVPixelFormat dstFormat, /* 输出图像的像素格式 */
int flags,/* 选择缩放算法(只有当输⼊输出图像⼤⼩不同时有效),⼀般选择SWS_FAST_BILINEAR */
SwsFilter *srcFilter, /* 输⼊图像的滤波器信息, 若不需要传NULL */
SwsFilter *dstFilter, /* 输出图像的滤波器信息, 若不需要传NULL */
const double *param /* 特定缩放算法需要的参数(?),默认为NULL */
  1. getCachedContext和sws_getContext的区别是就是多了struct SwsContext *context的传⼊。
3. sws_scale
/*** Scale the image slice in srcSlice and put the resulting scaled* slice in the image in dst. A slice is a sequence of consecutive* rows in an image.** Slices have to be provided in sequential order, either in* top-bottom or bottom-top order. If slices are provided in* non-sequential order the behavior of the function is undefined.** @param c         the scaling context previously created with*                  sws_getContext()* @param srcSlice  the array containing the pointers to the planes of*                  the source slice* @param srcStride the array containing the strides for each plane of*                  the source image* @param srcSliceY the position in the source image of the slice to*                  process, that is the number (counted starting from*                  zero) in the image of the first row of the slice* @param srcSliceH the height of the source slice, that is the number*                  of rows in the slice* @param dst       the array containing the pointers to the planes of*                  the destination image* @param dstStride the array containing the strides for each plane of*                  the destination image* @return          the height of the output slice*/
int sws_scale(struct SwsContext *c, const uint8_t *const srcSlice[],const int srcStride[], int srcSliceY, int srcSliceH,uint8_t *const dst[], const int dstStride[]);
  1. *参数 SwsContext c, 转换格式的上下⽂。也就是 sws_getContext 函数返回的结果。
  2. 参数 const uint8_t *const srcSlice[], 输⼊图像的每个颜⾊通道的数据指针。其实就是解码后的AVFrame中的data[]数组。因为不同像素的存储格式不同,所以srcSlice[]维数也有可能不同。
  3. 以YUV420P为例,它是planar格式,它的内存中的排布如下:
YYYYYYYY UUUU VVVV
使⽤FFmpeg解码后存储在AVFrame的data[]数组中时:
data[0]——-Y分量, Y1, Y2, Y3, Y4, Y5, Y6, Y7, Y8……
data[1]——-U分量, U1, U2, U3, U4……
data[2]——-V分量, V1, V2, V3, V4……
linesize[]数组中保存的是对应通道的数据宽度 ,
linesize[0]——-Y分量的宽度
linesize[1]——-U分量的宽度
linesize[2]——-V分量的宽度
  1. ⽽RGB24,它是packed格式,它在data[]数组中则只有⼀维,它在存储⽅式如下:
data[0]: R1, G1, B1, R2, G2, B2, R3, G3, B3, R4, G4, B4……
  1. 这⾥要特别注意,linesize[0]的值并不⼀定等于图⽚的宽度,有时候为了对⻬各解码器的CPU,实际尺⼨会⼤于图⽚的宽度,这点在我们编程时(⽐如OpengGL硬件转换/渲染)要特别注意,否则解码出来的图像会异常。
  2. 参数const int srcStride[],输⼊图像的每个颜⾊通道的跨度。.也就是每个通道的⾏字节数,对应的是解码后的AVFrame中的linesize[]数组。根据它可以确⽴下⼀⾏的起始位置,不过stride和width不⼀定相同,这是因为:
    1. 由于数据帧存储的对⻬,有可能会向每⾏后⾯增加⼀些填充字节这样 stride = width + N;
    2. packet⾊彩空间下,每个像素⼏个通道数据混合在⼀起,例如RGB24,每个像素3字节连续存放,因此下⼀⾏的位置需要跳过3*width字节。
  3. 参数int srcSliceY, int srcSliceH,定义在输⼊图像上处理区域,srcSliceY是起始位置,srcSliceH是处
    理多少⾏。如果srcSliceY=0,srcSliceH=height,表示⼀次性处理完整个图像。这种设置是为了多线程
    并⾏,例如可以创建两个线程,第⼀个线程处理 [0, h/2-1]⾏,第⼆个线程处理 [h/2, h-1]⾏。并⾏处理
    加快速度。
  4. **参数uint8_t *const dst[], const int dstStride[]**定义输出图像信息(输出的每个颜⾊通道数据指针,每个颜⾊通道⾏字节数)
4. sws_freeContext
/*** Free the swscaler context swsContext.* If swsContext is NULL, then does nothing.*/
void sws_freeContext(struct SwsContext *swsContext);
  1. 释放SwsContext。

2. 具体转换

            if (*img_convert_ctx != NULL) {uint8_t *pixels[4]; // 之前取Texture的缓存int pitch[4];if (!SDL_LockTexture(*tex, NULL, (void **)pixels, pitch)) {sws_scale(*img_convert_ctx, (const uint8_t * const *)frame->data, frame->linesize,0, frame->height, pixels, pitch);SDL_UnlockTexture(*tex);}}
  1. 上述代码有三个步骤:

    1. SDL_LockTexture() 锁定texture中的⼀个rect(此处是锁定整个texture),锁定区具有只写属性,⽤于更新图像数据。 pixels 指向锁定区。
    2. sws_scale() 进⾏图像格式转换,转换后的数据写⼊ pixels 指定的区域。 pixels 包含4个指针,指向⼀组图像plane
    3. SDL_UnlockTexture() 将锁定的区域解锁,将改变的数据更新到视频缓冲区中。
  2. 上述三步完成后,texture中已包含经过格式转换后新的图像数据。
  3. 由上分析可以得出texture的缓存区,我们可以直接使⽤,避免⼆次拷⻉。

3. ffmpeg中的sws_scale算法性能测试

ffmpeg中的sws_scale算法性能测试

ffplay.c学习-5-视频输出和尺⼨变换相关推荐

  1. ffplay.c学习-1-框架及数据结构

    ffplay.c学习-1-框架及数据结构 目录 ffplay.c的意义 FFplay框架分析 数据结构分析 struct VideoState 播放器封装 struct Clock 时钟封装 stru ...

  2. ffplay.c学习-7-以音频同步为基准

    ffplay.c学习-7-以音频同步为基准 目录 以音频为基准 ⾳频主流程 视频主流程 delay的计算 以视频为基准 视频主流程 ⾳频主流程 synchronize_audio swr_set_co ...

  3. ffplay.c学习-2-数据读取线程

    ffplay.c学习-2-数据读取线程 目录 准备⼯作 avformat_alloc_context 创建上下⽂ ic->interrupt_callback avformat_open_inp ...

  4. ffplay.c学习-8-暂停、逐帧、⾳量

    ffplay.c学习-8-暂停.逐帧.⾳量 目录 播放.暂停 暂停/继续状态切换 暂停状态下的视频播放 暂停状态下的⾳频播放 逐帧.调⾳量.静⾳ 逐帧 调⾳量 静⾳ 常⽤的播放器操作: 播放:程序启动 ...

  5. ffplay.c学习-6-⾳视频同步基础

    ffplay.c学习-6-⾳视频同步基础 目录 ⾳视频同步策略 ⾳视频同步概念 FFmpeg中的时间单位 ⾳视频时间换算的问题 不同结构体的time_base/duration分析 不同结构体的PTS ...

  6. ffplay.c学习-4-⾳频输出和⾳频重采样

    ffplay.c学习-4-⾳频输出和⾳频重采样 目录 ⾳频输出模块 打开SDL⾳频设备 打开⾳频设备audio_open 回调函数逻辑sdl_audio_callback 回调函数读取数据 ⾳频重采样 ...

  7. ffplay.c学习-3-音视频解码线程

    ffplay.c学习-3-音视频解码线程 目录 解码线程 视频解码线程 video_thread() get_video_frame() 同⼀播放序列流连续的情况下,不断调⽤avcodec_recei ...

  8. 《机器人学导论》学习-01空间描述与变换

    <机器人学导论>学习-01空间描述与变换 一.描述:位置.姿态与坐标系 1.位置描述 2.姿态描述 3.坐标系的描述 二.映射:坐标系到坐标系的变换 1.关于平移坐标系的映射 2.关于旋转 ...

  9. opengl源码 实现无缝切换图片过场_OpenGL学习笔记(六)变换

    本文为学习LearnOpenGL的学习笔记,如有书写和理解错误还请大佬扶正: 教程链接: https://learnopengl-cn.github.io/01%20Getting%20started ...

最新文章

  1. java如何处理csv文件上传_java处理csv文件上传示例
  2. Java练习 SDUT-2737_小鑫の日常系列故事(六)——奇遇记
  3. Linux 访问权限
  4. 数字经济论坛、阿里研究院、毕马威联合发布《2018全球数字经济发展指数》
  5. XCode: 兼容ARC和non-ARC
  6. 候选JEP:记录和密封类型
  7. js属性对象的hasOwnProperty方法
  8. nodejs cluster_认识node核心模块--全局对象及Cluster
  9. RN开发研究入门篇(一)项目搭建
  10. 关于DoIP 协议的理解
  11. pgadmin3连接mysql_如何使用pgAdmin3连接到Ubuntu上的远程PostgreSQL数据库?
  12. KMP扩展KMPManacher算法基础与习题(第二更)
  13. 极限中0除以常数_谈用泰勒展开法求极限
  14. 5、聊聊大名鼎鼎的张正友标定法
  15. spring源码解读:@Lazy延迟注入的逻辑
  16. 2022电子邮箱大全,国内企业邮箱注册大全有哪些?
  17. GitLab更换IP地址报错解决
  18. 如何在Tanzu Cluster中使用vSphere with Tanzu内置容器注册表
  19. 12864液晶深入学习笔记_1——基于msp430g2553
  20. Java并发包中那些值得学习的并发工具类(空谈误国,实干兴邦,代码示范,抛砖引玉)

热门文章

  1. RocketMQ的安装与配置
  2. ScrollView嵌套ListView后,进入页面不从顶部开始显示的问题解决
  3. 新建linux组、用户命令
  4. lua cocos 创建动画的几种方式
  5. C++ 如何将一个文件夹中的所有文件(.txt或者.log)内容整合到一个文件(.txt或者.log)当中
  6. CodeForces - 856B Similar Words(AC自动机+树形dp)
  7. (转)离散化:两种离散化方式详解
  8. PTA 判断对称矩阵 (10分)
  9. PE文件结构详解(二)可执行文件头
  10. Zookeeper 安装和配置---学习一