Android音视频三-AndroidStudio整合FFmpeg项目+FFmpeg视频解码
参数
- 编辑器 AS3.0
- NDK最新版
整合步骤
- 首先AS要下载ndk-bundle,这个比较简单在设置里面就可以下载,下载完成以后新建项目时候勾选上
inclue C++
选项。 - 由于对Cmake不是特别熟悉,所以项目里面我用的是Makefile来编译整个项目。其实Cmake最后也是生成Makefile文件来编译整个项目。项目里面就需要在main目录下新建jni文件夹,如下图:
- jni文件夹新建完成以后,将我们编译生成的动态库以及头文件直接拷贝到jni目录下,动态库的编译请参考动态库的编译,
进行到这里第一步的工作算是完成了,接下来就是新建一个java类,在里面编写native方法。将java和c之间建立一个桥梁.内容如下
public class Player {public static native void palyVedio(String input,String output); }
随着AS版本的不断升级,已经不用再去手动的生成头文件,直接Alt+Enter快捷键就会生成player.c的C文件。当然你也可以自己去手动的生成头文件。
- 接下来是非常重要的一步,就是编写Android.mk文件和Application.mk文件,mk文件内容如下
Android.mk
LOCAL_PATH := $(call my-dir)#ffmpeg lib
include $(CLEAR_VARS)
LOCAL_MODULE := avcodec
LOCAL_SRC_FILES := libavcodec-56.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := avdevice
LOCAL_SRC_FILES := libavdevice-56.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := avfilter
LOCAL_SRC_FILES := libavfilter-5.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := avformat
LOCAL_SRC_FILES := libavformat-56.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := avutil
LOCAL_SRC_FILES := libavutil-54.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := postproc
LOCAL_SRC_FILES := libpostproc-53.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := swresample
LOCAL_SRC_FILES := libswresample-1.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := swscale
LOCAL_SRC_FILES := libswscale-3.so
include $(PREBUILT_SHARED_LIBRARY)#myapp
include $(CLEAR_VARS)
LOCAL_MODULE := myffmpeg
LOCAL_SRC_FILES := player.c
LOCAL_C_INCLUDES += $(LOCAL_PATH)/include
LOCAL_LDLIBS := -llog
LOCAL_SHARED_LIBRARIES := avcodec avdevice avfilter avformat avutil postproc swresample swscale
include $(BUILD_SHARED_LIBRARY)
Application.mk
APP_ABI := armeabi
APP_PLATFORM := android-8
7.接下来就是要到build.grale中去设置mk文件。
android {
···externalNativeBuild {ndkBuild {path 'src/main/jni/Android.mk'}}
}
defaultConfig {···ndk {// 设置支持的SO库架构abiFilters 'armeabi' //, 'x86', 'armeabi-v7a', 'x86_64', 'arm64-v8a'moduleName "myffmpeg"ldLibs "log", "z", "m", "jnigraphics", "android"}}
到这里就一切准备就绪了,接下来就是测试我们整合是是否正确。点击Rebuild Project 在Gradle Console查看,如果显示的是Sucess就说明已经配置成功了。如下图:
8 接下来就是愉快的编码时间,这里就不再过多的解析,注释已经写得很清晰。有不懂的朋友我们再交流。
#include <jni.h>#include <libavformat/avformat.h>#include <android/log.h>#include <libswscale/swscale.h>#define LOGI(FORMAT,...) __android_log_print(ANDROID_LOG_INFO,"^_^",FORMAT,##__VA_ARGS__);#define LOGE(FORMAT,...) __android_log_print(ANDROID_LOG_ERROR,">_<",FORMAT,##__VA_ARGS__);JNIEXPORT void JNICALLJava_shixin_com_myffmpeg_Player_palyVedio(JNIEnv *env, jclass type, jstring input_jstr,jstring output_jstr) {const char *input_cstr = (*env)->GetStringUTFChars(env, input_jstr, 0);const char *output_cstr = (*env)->GetStringUTFChars(env, output_jstr, 0);//1.注册所有组件av_register_all();//封装格式上下文,统领全局的结构体,保存了视频文件封装格式的相关信息AVFormatContext *pFormatCtx = avformat_alloc_context();//2.打开输入视频文件if (avformat_open_input(&pFormatCtx, input_cstr, NULL, NULL) != 0){LOGE("%s","无法打开输入视频文件");return;}//3.获取视频文件信息if (avformat_find_stream_info(pFormatCtx,NULL) < 0){LOGE("%s","无法获取视频文件信息");return;}//获取视频流的索引位置//遍历所有类型的流(音频流、视频流、字幕流),找到视频流int v_stream_idx = -1;int i = 0;//number of streamsfor (; i < pFormatCtx->nb_streams; i++){//流的类型if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO){v_stream_idx = i;break;}}if (v_stream_idx == -1){LOGE("%s","找不到视频流\n");return;}//只有知道视频的编码方式,才能够根据编码方式去找到解码器//获取视频流中的编解码上下文AVCodecContext *pCodecCtx = pFormatCtx->streams[v_stream_idx]->codec;//4.根据编解码上下文中的编码id查找对应的解码AVCodec *pCodec = avcodec_find_decoder(pCodecCtx->codec_id);//(迅雷看看,找不到解码器,临时下载一个解码器)if (pCodec == NULL){LOGE("%s","找不到解码器\n");return;}//5.打开解码器if (avcodec_open2(pCodecCtx,pCodec,NULL)<0){LOGE("%s","解码器无法打开\n");return;}//输出视频信息LOGI("视频的文件格式:%s",pFormatCtx->iformat->name);LOGI("视频时长:" PRId64 "\n", (pFormatCtx->duration)/1000000);LOGI("视频的宽高:%d,%d",pCodecCtx->width,pCodecCtx->height);LOGI("解码器的名称:%s",pCodec->name);//准备读取//AVPacket用于存储一帧一帧的压缩数据(H264)//缓冲区,开辟空间AVPacket *packet = (AVPacket*)av_malloc(sizeof(AVPacket));//AVFrame用于存储解码后的像素数据(YUV)//内存分配AVFrame *pFrame = av_frame_alloc();//YUV420AVFrame *pFrameYUV = av_frame_alloc();//只有指定了AVFrame的像素格式、画面大小才能真正分配内存//缓冲区分配内存uint8_t *out_buffer = (uint8_t *)av_malloc((size_t) avpicture_get_size(AV_PIX_FMT_YUV420P,pCodecCtx->width, pCodecCtx->height));//初始化缓冲区avpicture_fill((AVPicture *)pFrameYUV,out_buffer,AV_PIX_FMT_YUV420P,pCodecCtx->width,pCodecCtx->height);//用于转码(缩放)的参数,转之前的宽高,转之后的宽高,格式等struct SwsContext *sws_ctx = sws_getContext(pCodecCtx->width,pCodecCtx->height,pCodecCtx->pix_fmt,pCodecCtx->width,pCodecCtx->height,AV_PIX_FMT_YUV420P,SWS_BICUBIC, NULL, NULL, NULL);int got_picture, ret;FILE *fp_yuv = fopen(output_cstr, "wb+");int frame_count = 0;//6.一帧一帧的读取压缩数据while (av_read_frame(pFormatCtx, packet) >= 0){//只要视频压缩数据(根据流的索引位置判断)if (packet->stream_index == v_stream_idx){//7.解码一帧视频压缩数据,得到视频像素数据ret = avcodec_decode_video2(pCodecCtx,pFrame,&got_picture,packet);if (ret < 0){LOGE("%s","解码错误");return;}//为0说明解码完成,非0正在解码if (got_picture){//AVFrame转为像素格式YUV420,宽高//2 6输入、输出数据//3 7输入、输出画面一行的数据的大小 AVFrame 转换是一行一行转换的//4 输入数据第一列要转码的位置 从0开始//5 输入画面的高度sws_scale(sws_ctx,(const uint8_t *const *) pFrame->data,pFrame->linesize, 0,pCodecCtx->height,pFrameYUV->data,pFrameYUV->linesize);//输出到YUV文件//AVFrame像素帧写入文件//data解码后的图像像素数据(音频采样数据)//Y 亮度 UV 色度(压缩了) 人对亮度更加敏感//U V 个数是Y的1/4int y_size = pCodecCtx->width * pCodecCtx->height;fwrite(pFrameYUV->data[0], 1, y_size, fp_yuv);fwrite(pFrameYUV->data[1], 1, y_size / 4, fp_yuv);fwrite(pFrameYUV->data[2], 1, y_size / 4, fp_yuv);frame_count++;LOGI("解码第%d帧",frame_count);}}//释放资源av_free_packet(packet);}fclose(fp_yuv);(*env)->ReleaseStringUTFChars(env,input_jstr,input_cstr);(*env)->ReleaseStringUTFChars(env,output_jstr,output_cstr);av_frame_free(&pFrame);avcodec_close(pCodecCtx);avformat_free_context(pFormatCtx);}
接下下来就是加载动态库,同时不要忘记加上权限
public class Player {public static native void palyVedio(String input,String output);static{System.loadLibrary("avutil-54");System.loadLibrary("swresample-1");System.loadLibrary("avcodec-56");System.loadLibrary("avformat-56");System.loadLibrary("swscale-3");System.loadLibrary("postproc-53");System.loadLibrary("avfilter-5");System.loadLibrary("avdevice-56");System.loadLibrary("myffmpeg");}
}
运行时所需的权限
<uses-permission android:name="android.permission.READ_EXTERNAL_STORAGE" /><uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" /><uses-permission android:name="android.permission.MOUNT_UNMOUNT_FILESYSTEMS" />
测试代码
String input = new File(Environment.getExternalStorageDirectory(),"12.mp4").getAbsolutePath();String output = new File(Environment.getExternalStorageDirectory(),"output_yuv420p.yuv").getAbsolutePath();Player.palyVedio(input, output);
补充
上面解码生产的是yuv文件,需要下载yuv播放器才可以查看是否解码成功。
Android音视频三-AndroidStudio整合FFmpeg项目+FFmpeg视频解码相关推荐
- android 键编译,Android 音视频学习系列 (四) 一键编译 32/64 位 FFmpeg 4.2.2
前言 2020/5/20 增加了硬件解码编译脚本 编译环境 Centos + NDK20b + FFmpeg4.2.2 + Android-21/16 2020/4/26 更新了编译 64 位脚本 编 ...
- 推荐几个堪称教科书级别的 Android 音视频入门项目
公众号回复:OpenGL,领取学习资源大礼包 在 直播 中有提到几个不错的开源项目,这里再重点推荐一下: 目前,市面上关于音视频学习的相关书籍并不多,而且即使看了书籍学了理论,最终还是要回归到代码上来 ...
- 【Android 音视频开发打怪升级:FFmpeg音视频编解码篇】一、FFmpeg so库编译
转自:https://juejin.im/post/5e130df55188253a8b42ebac 目录 一.Android音视频硬解码篇: 1,音视频基础知识 2,音视频硬解码流程:封装基础解码框 ...
- Android音视频开发--FFmpeg
音视频的基础知识 视频 静止的画面叫图像(picture): 连续的图像变化每秒超过24帧(frame)画面以上时,根椐视觉暂留原理,人眼无法辨别每付单独的静态画面,看上去是平滑连续的视觉效果,这样的 ...
- android flv 编码器,Android 音视频深入 十七 FFmpeg 获取 RTMP 流保存为 flv (附源码下载)...
Android 音视频深入 十七 FFmpeg 获取 RTMP 流保存为 flv (附源码下载) 项目地址 https://github.com/979451341/RtmpSave 这个项目主要代码 ...
- Android音视频学习系列(十) — 基于FFmpeg + OpenSL ES实现音频万能播放器
系列文章 Android音视频学习系列(一) - JNI从入门到精通 Android音视频学习系列(二) - 交叉编译动态库.静态库的入门 Android音视频学习系列(三) - Shell脚本入门 ...
- android音频开发6,Android 音视频开发(一) : 通过三种方式绘制图片
想要逐步入门音视频开发,就需要一步步的去学习整理,并积累.本文是音视频开发积累的第一篇. 对应的要学习的内容是:在 Android 平台绘制一张图片,使用至少 3 种不同的 API,ImageView ...
- Android 音视频开发(三) -- Camera2 实现预览、拍照功能
音视频 系列文章 Android 音视频开发(一) – 使用AudioRecord 录制PCM(录音):AudioTrack播放音频 Android 音视频开发(二) – Camera1 实现预览.拍 ...
- Android音视频点/直播模块开发
前言 随着音视频领域的火热,在很多领域(教育,游戏,娱乐,体育,跑步,餐饮,音乐等)尝试做音视频直播/点播功能,那么作为开发一个小白,如何快速学习音视频基础知识,了解音视频编解码的传输协议,编解码方式 ...
- Android 音视频编辑经验总结及开源工程分享
提到音视频编辑方案,大家最容易搜到的可能是ffmpeg这个牛X的开源方案.ffmpeg 是基于C语言的著名视频编解码方案.国内有也有不少的公司将ffmpeg 移植到iOS和android 平台进行视频 ...
最新文章
- Django项目配合sentry实现浅析
- 多级反馈队列调度算法事例
- 使用startForeground让android服务前台运行
- 循环前增加和后增加之间的区别?
- python之爬虫(四)之 Requests库的基本使用
- 如何在Ubuntu 18.04上安装OpenCV
- 小红书创始人瞿芳回应裁员风波:战略部署清晰 人员翻倍
- Arrays工具类的常用方法
- .Net NPOI Word模板关键内容替换
- 微信java精简版低内存_微信精简版低内存apk-微信精简版2019下载v7.0.6 安卓版-腾牛安卓网...
- git pull时遇到的问题
- 第十三届蓝桥杯复盘及未来规划
- 凯文.都迪的超级记忆力训练教程
- CPP2022-16-宏、函数重载与函数模板
- 【私藏】开发APP必须知道的API集合
- Python基础算法案例:24点纸牌游戏算法
- 【正点原子STM32连载】第四十五章 SD卡实验 摘自【正点原子】MiniPro STM32H750 开发指南_V1.1
- Python入门基础篇 No.8 —— 时间的表示_unix时间点_毫秒_time模块
- 小峰峰的pat甲级刷题记录1030
- go show 和 no show问题