参数

  • 编辑器 AS3.0
  • NDK最新版

整合步骤

  1. 首先AS要下载ndk-bundle,这个比较简单在设置里面就可以下载,下载完成以后新建项目时候勾选上inclue C++选项。
  2. 由于对Cmake不是特别熟悉,所以项目里面我用的是Makefile来编译整个项目。其实Cmake最后也是生成Makefile文件来编译整个项目。项目里面就需要在main目录下新建jni文件夹,如下图:
  3. jni文件夹新建完成以后,将我们编译生成的动态库以及头文件直接拷贝到jni目录下,动态库的编译请参考动态库的编译,
  4. 进行到这里第一步的工作算是完成了,接下来就是新建一个java类,在里面编写native方法。将java和c之间建立一个桥梁.内容如下

    public class Player {public static native void palyVedio(String input,String output);
    }
  5. 随着AS版本的不断升级,已经不用再去手动的生成头文件,直接Alt+Enter快捷键就会生成player.c的C文件。当然你也可以自己去手动的生成头文件。

  6. 接下来是非常重要的一步,就是编写Android.mk文件和Application.mk文件,mk文件内容如下
    Android.mk
LOCAL_PATH := $(call my-dir)#ffmpeg lib
include $(CLEAR_VARS)
LOCAL_MODULE := avcodec
LOCAL_SRC_FILES := libavcodec-56.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := avdevice
LOCAL_SRC_FILES := libavdevice-56.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := avfilter
LOCAL_SRC_FILES := libavfilter-5.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := avformat
LOCAL_SRC_FILES := libavformat-56.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := avutil
LOCAL_SRC_FILES := libavutil-54.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := postproc
LOCAL_SRC_FILES := libpostproc-53.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := swresample
LOCAL_SRC_FILES := libswresample-1.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := swscale
LOCAL_SRC_FILES := libswscale-3.so
include $(PREBUILT_SHARED_LIBRARY)#myapp
include $(CLEAR_VARS)
LOCAL_MODULE := myffmpeg
LOCAL_SRC_FILES := player.c
LOCAL_C_INCLUDES += $(LOCAL_PATH)/include
LOCAL_LDLIBS := -llog
LOCAL_SHARED_LIBRARIES := avcodec avdevice avfilter avformat avutil postproc swresample swscale
include $(BUILD_SHARED_LIBRARY)

Application.mk

APP_ABI := armeabi
APP_PLATFORM := android-8

7.接下来就是要到build.grale中去设置mk文件。

android {
···externalNativeBuild {ndkBuild {path 'src/main/jni/Android.mk'}}
}
    defaultConfig {···ndk {// 设置支持的SO库架构abiFilters 'armeabi' //, 'x86', 'armeabi-v7a', 'x86_64', 'arm64-v8a'moduleName "myffmpeg"ldLibs "log", "z", "m", "jnigraphics", "android"}}

到这里就一切准备就绪了,接下来就是测试我们整合是是否正确。点击Rebuild Project 在Gradle Console查看,如果显示的是Sucess就说明已经配置成功了。如下图:

8 接下来就是愉快的编码时间,这里就不再过多的解析,注释已经写得很清晰。有不懂的朋友我们再交流。

    #include <jni.h>#include <libavformat/avformat.h>#include <android/log.h>#include <libswscale/swscale.h>#define LOGI(FORMAT,...) __android_log_print(ANDROID_LOG_INFO,"^_^",FORMAT,##__VA_ARGS__);#define LOGE(FORMAT,...) __android_log_print(ANDROID_LOG_ERROR,">_<",FORMAT,##__VA_ARGS__);JNIEXPORT void JNICALLJava_shixin_com_myffmpeg_Player_palyVedio(JNIEnv *env, jclass type, jstring input_jstr,jstring output_jstr) {const char *input_cstr = (*env)->GetStringUTFChars(env, input_jstr, 0);const char *output_cstr = (*env)->GetStringUTFChars(env, output_jstr, 0);//1.注册所有组件av_register_all();//封装格式上下文,统领全局的结构体,保存了视频文件封装格式的相关信息AVFormatContext *pFormatCtx = avformat_alloc_context();//2.打开输入视频文件if (avformat_open_input(&pFormatCtx, input_cstr, NULL, NULL) != 0){LOGE("%s","无法打开输入视频文件");return;}//3.获取视频文件信息if (avformat_find_stream_info(pFormatCtx,NULL) < 0){LOGE("%s","无法获取视频文件信息");return;}//获取视频流的索引位置//遍历所有类型的流(音频流、视频流、字幕流),找到视频流int v_stream_idx = -1;int i = 0;//number of streamsfor (; i < pFormatCtx->nb_streams; i++){//流的类型if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO){v_stream_idx = i;break;}}if (v_stream_idx == -1){LOGE("%s","找不到视频流\n");return;}//只有知道视频的编码方式,才能够根据编码方式去找到解码器//获取视频流中的编解码上下文AVCodecContext *pCodecCtx = pFormatCtx->streams[v_stream_idx]->codec;//4.根据编解码上下文中的编码id查找对应的解码AVCodec *pCodec = avcodec_find_decoder(pCodecCtx->codec_id);//(迅雷看看,找不到解码器,临时下载一个解码器)if (pCodec == NULL){LOGE("%s","找不到解码器\n");return;}//5.打开解码器if (avcodec_open2(pCodecCtx,pCodec,NULL)<0){LOGE("%s","解码器无法打开\n");return;}//输出视频信息LOGI("视频的文件格式:%s",pFormatCtx->iformat->name);LOGI("视频时长:" PRId64 "\n", (pFormatCtx->duration)/1000000);LOGI("视频的宽高:%d,%d",pCodecCtx->width,pCodecCtx->height);LOGI("解码器的名称:%s",pCodec->name);//准备读取//AVPacket用于存储一帧一帧的压缩数据(H264)//缓冲区,开辟空间AVPacket *packet = (AVPacket*)av_malloc(sizeof(AVPacket));//AVFrame用于存储解码后的像素数据(YUV)//内存分配AVFrame *pFrame = av_frame_alloc();//YUV420AVFrame *pFrameYUV = av_frame_alloc();//只有指定了AVFrame的像素格式、画面大小才能真正分配内存//缓冲区分配内存uint8_t *out_buffer = (uint8_t *)av_malloc((size_t) avpicture_get_size(AV_PIX_FMT_YUV420P,pCodecCtx->width, pCodecCtx->height));//初始化缓冲区avpicture_fill((AVPicture *)pFrameYUV,out_buffer,AV_PIX_FMT_YUV420P,pCodecCtx->width,pCodecCtx->height);//用于转码(缩放)的参数,转之前的宽高,转之后的宽高,格式等struct SwsContext *sws_ctx = sws_getContext(pCodecCtx->width,pCodecCtx->height,pCodecCtx->pix_fmt,pCodecCtx->width,pCodecCtx->height,AV_PIX_FMT_YUV420P,SWS_BICUBIC, NULL, NULL, NULL);int got_picture, ret;FILE *fp_yuv = fopen(output_cstr, "wb+");int frame_count = 0;//6.一帧一帧的读取压缩数据while (av_read_frame(pFormatCtx, packet) >= 0){//只要视频压缩数据(根据流的索引位置判断)if (packet->stream_index == v_stream_idx){//7.解码一帧视频压缩数据,得到视频像素数据ret = avcodec_decode_video2(pCodecCtx,pFrame,&got_picture,packet);if (ret < 0){LOGE("%s","解码错误");return;}//为0说明解码完成,非0正在解码if (got_picture){//AVFrame转为像素格式YUV420,宽高//2 6输入、输出数据//3 7输入、输出画面一行的数据的大小 AVFrame 转换是一行一行转换的//4 输入数据第一列要转码的位置 从0开始//5 输入画面的高度sws_scale(sws_ctx,(const uint8_t *const *) pFrame->data,pFrame->linesize, 0,pCodecCtx->height,pFrameYUV->data,pFrameYUV->linesize);//输出到YUV文件//AVFrame像素帧写入文件//data解码后的图像像素数据(音频采样数据)//Y 亮度 UV 色度(压缩了) 人对亮度更加敏感//U V 个数是Y的1/4int y_size = pCodecCtx->width * pCodecCtx->height;fwrite(pFrameYUV->data[0], 1, y_size, fp_yuv);fwrite(pFrameYUV->data[1], 1, y_size / 4, fp_yuv);fwrite(pFrameYUV->data[2], 1, y_size / 4, fp_yuv);frame_count++;LOGI("解码第%d帧",frame_count);}}//释放资源av_free_packet(packet);}fclose(fp_yuv);(*env)->ReleaseStringUTFChars(env,input_jstr,input_cstr);(*env)->ReleaseStringUTFChars(env,output_jstr,output_cstr);av_frame_free(&pFrame);avcodec_close(pCodecCtx);avformat_free_context(pFormatCtx);}

接下下来就是加载动态库,同时不要忘记加上权限

public class Player {public static native void palyVedio(String input,String output);static{System.loadLibrary("avutil-54");System.loadLibrary("swresample-1");System.loadLibrary("avcodec-56");System.loadLibrary("avformat-56");System.loadLibrary("swscale-3");System.loadLibrary("postproc-53");System.loadLibrary("avfilter-5");System.loadLibrary("avdevice-56");System.loadLibrary("myffmpeg");}
}

运行时所需的权限

    <uses-permission android:name="android.permission.READ_EXTERNAL_STORAGE" /><uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" /><uses-permission android:name="android.permission.MOUNT_UNMOUNT_FILESYSTEMS" />

测试代码

        String input = new File(Environment.getExternalStorageDirectory(),"12.mp4").getAbsolutePath();String output = new File(Environment.getExternalStorageDirectory(),"output_yuv420p.yuv").getAbsolutePath();Player.palyVedio(input, output);

补充

上面解码生产的是yuv文件,需要下载yuv播放器才可以查看是否解码成功。

Android音视频三-AndroidStudio整合FFmpeg项目+FFmpeg视频解码相关推荐

  1. android 键编译,Android 音视频学习系列 (四) 一键编译 32/64 位 FFmpeg 4.2.2

    前言 2020/5/20 增加了硬件解码编译脚本 编译环境 Centos + NDK20b + FFmpeg4.2.2 + Android-21/16 2020/4/26 更新了编译 64 位脚本 编 ...

  2. 推荐几个堪称教科书级别的 Android 音视频入门项目

    公众号回复:OpenGL,领取学习资源大礼包 在 直播 中有提到几个不错的开源项目,这里再重点推荐一下: 目前,市面上关于音视频学习的相关书籍并不多,而且即使看了书籍学了理论,最终还是要回归到代码上来 ...

  3. 【Android 音视频开发打怪升级:FFmpeg音视频编解码篇】一、FFmpeg so库编译

    转自:https://juejin.im/post/5e130df55188253a8b42ebac 目录 一.Android音视频硬解码篇: 1,音视频基础知识 2,音视频硬解码流程:封装基础解码框 ...

  4. Android音视频开发--FFmpeg

    音视频的基础知识 视频 静止的画面叫图像(picture): 连续的图像变化每秒超过24帧(frame)画面以上时,根椐视觉暂留原理,人眼无法辨别每付单独的静态画面,看上去是平滑连续的视觉效果,这样的 ...

  5. android flv 编码器,Android 音视频深入 十七 FFmpeg 获取 RTMP 流保存为 flv (附源码下载)...

    Android 音视频深入 十七 FFmpeg 获取 RTMP 流保存为 flv (附源码下载) 项目地址 https://github.com/979451341/RtmpSave 这个项目主要代码 ...

  6. Android音视频学习系列(十) — 基于FFmpeg + OpenSL ES实现音频万能播放器

    系列文章 Android音视频学习系列(一) - JNI从入门到精通 Android音视频学习系列(二) - 交叉编译动态库.静态库的入门 Android音视频学习系列(三) - Shell脚本入门 ...

  7. android音频开发6,Android 音视频开发(一) : 通过三种方式绘制图片

    想要逐步入门音视频开发,就需要一步步的去学习整理,并积累.本文是音视频开发积累的第一篇. 对应的要学习的内容是:在 Android 平台绘制一张图片,使用至少 3 种不同的 API,ImageView ...

  8. Android 音视频开发(三) -- Camera2 实现预览、拍照功能

    音视频 系列文章 Android 音视频开发(一) – 使用AudioRecord 录制PCM(录音):AudioTrack播放音频 Android 音视频开发(二) – Camera1 实现预览.拍 ...

  9. Android音视频点/直播模块开发

    前言 随着音视频领域的火热,在很多领域(教育,游戏,娱乐,体育,跑步,餐饮,音乐等)尝试做音视频直播/点播功能,那么作为开发一个小白,如何快速学习音视频基础知识,了解音视频编解码的传输协议,编解码方式 ...

  10. Android 音视频编辑经验总结及开源工程分享

    提到音视频编辑方案,大家最容易搜到的可能是ffmpeg这个牛X的开源方案.ffmpeg 是基于C语言的著名视频编解码方案.国内有也有不少的公司将ffmpeg 移植到iOS和android 平台进行视频 ...

最新文章

  1. Django项目配合sentry实现浅析
  2. 多级反馈队列调度算法事例
  3. 使用startForeground让android服务前台运行
  4. 循环前增加和后增加之间的区别?
  5. python之爬虫(四)之 Requests库的基本使用
  6. 如何在Ubuntu 18.04上安装OpenCV
  7. 小红书创始人瞿芳回应裁员风波:战略部署清晰 人员翻倍
  8. Arrays工具类的常用方法
  9. .Net NPOI Word模板关键内容替换
  10. 微信java精简版低内存_微信精简版低内存apk-微信精简版2019下载v7.0.6 安卓版-腾牛安卓网...
  11. git pull时遇到的问题
  12. 第十三届蓝桥杯复盘及未来规划
  13. 凯文.都迪的超级记忆力训练教程
  14. CPP2022-16-宏、函数重载与函数模板
  15. 【私藏】开发APP必须知道的API集合
  16. Python基础算法案例:24点纸牌游戏算法
  17. 【正点原子STM32连载】第四十五章 SD卡实验 摘自【正点原子】MiniPro STM32H750 开发指南_V1.1
  18. Python入门基础篇 No.8 —— 时间的表示_unix时间点_毫秒_time模块
  19. 小峰峰的pat甲级刷题记录1030
  20. go show 和 no show问题

热门文章

  1. 【Android】雾霾定位探测系统
  2. 软考程序员-C专题(1)
  3. 免费下载百度文库需下载券文件
  4. DatagramPacket.getData()与DatagramPacket.getLength()的误区
  5. Windows 10 如何添加开机启动项
  6. 《数据库系统概论》第五版 +学习笔记总目录
  7. 啊哈算法---快速排序(C语言)
  8. 教你如何认识各种光纤接口类型
  9. 【企业架构】什么是 TOGAF? 企业架构方法论
  10. CS231n:作业1——KNN