本文的示例将实现:读取安卓手机摄像头数据并使用H.264编码格式实时编码保存为flv文件。示例包含了

1、编译适用于安卓平台的ffmpeg库

2、在java中通过JNI使用ffmpeg

3、读取安卓摄像头数据并在后台线程中使用ffmpeg进行编码的基本流程

具有较强的综合性。

编译适用于安卓平台的ffmpeg库

平时我们编译ffmpeg类库都是在x86平台下,而安卓手机属于arm平台,所以要先通过交叉编译的方法在x86平台下编译出可以在arm平台下使用的ffmpeg类库。Google就为我们提供了一套可以再Linux下完成该任务的交叉编译工具链——NDK,下载时可以看到google同时提供了ndk的windows版和linux版,前者可以在windows下通过cygwin(可以理解为一个在windows下模拟linux的工具)使用。我这里使用的是Android-ndk-r10e,在cygwin下使用。ndk的下载安装基本是傻瓜式的,但要注意linux系统对x86和x64是分的很清楚的,不像windows那么随性,此外还需要提醒的是,在下载安装cygwin时,只需要选择binutils , gcc , gcc-mingw , gdb , make这几个组件。安装完成后,在cygwin安装目录下点击cygwin.bat打开命令窗口,输入make -version验证是否安装成功。

做好以上的准备工作之后就可以正式开始ffmpeg源码的编译了。

首先需要修改configure文件,确保类库版本号不会出现在.so后缀名的后面,否则安卓平台无法识别这样的类库

找到下面几句

SLIBNAME_WITH_MAJOR='$(SLIBNAME).$(LIBMAJOR)'
LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'
SLIB_INSTALL_NAME='$(SLIBNAME_WITH_VERSION)'
SLIB_INSTALL_LINKS='$(SLIBNAME_WITH_MAJOR)$(SLIBNAME)'  

修改为

SLIBNAME_WITH_MAJOR='$(SLIBPREF)$(FULLNAME)-$(LIBMAJOR)$(SLIBSUF)'
LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'
SLIB_INSTALL_NAME='$(SLIBNAME_WITH_MAJOR)'
SLIB_INSTALL_LINKS='$(SLIBNAME)' 

之后进行常规的configure配置,make, make install步骤即可,下面给出一个常规的脚本示例

make clean  export NDK=xxxx/android-ndk-r10e
export PREBUILT=$NDK/toolchains/arm-linux-androideabi-4.8/prebuilt
export PLATFORM=$NDK/platforms/android-8/arch-arm
export PREFIX=../android_ffmpeglib./configure --target-os=linux --prefix=$PREFIX \
--enable-cross-compile \
--enable-runtime-cpudetect \
--disable-asm \
--arch=arm \
--cc=$PREBUILT/windows/bin/arm-linux-androideabi-gcc \
--cross-prefix=$PREBUILT/windows/bin/arm-linux-androideabi- \
--disable-stripping \
--nm=$PREBUILT/windows/bin/arm-linux-androideabi-nm \
--sysroot=$PLATFORM \
--enable-gpl --enable-shared --disable-static --enable-small \
--disable-ffprobe --disable-ffplay --disable-ffmpeg --disable-ffserver --disable-debug \
--extra-cflags="-fPIC -DANDROID -D__thumb__ -mthumb -Wfatal-errors -Wno-deprecated -mfloat-abi=softfp -marm -march=armv7-a"   make
make install 

成功编译后,可以看到如下类库

在java中通过JNI使用ffmpeg

JNI即java本地接口,java native interface,它是一个协议, 该协议用来沟通Java代码和外部的本地C/C++代码, 通过该协议 Java代码可以调用外部的本地代码, 外部的C/C++ 代码可以调用Java代码。简单来说,就是将一个C语言的方法映射到Java的某个方法上;

JNI中的一些概念 :
-- native : Java语言中修饰本地方法的修饰符, 被该修饰符修饰的方法没有方法体;
-- Native方法 : 在Java语言中被native关键字修饰的方法是Native方法;
-- JNI层 : Java声明Native方法的部分;
-- JNI函数 : JNIEnv提供的函数, 这些函数在jni.h中进行定义;
-- JNI方法 : Native方法对应的JNI层实现的 C/C++方法, 即在jni目录中实现的那些C语言代码;

具体流程可以参照ndk的sample目录下的hellojni项目,总结起来有如下几个步骤

1、创建常规Android项目

2、声明Native方法,形如public native String stringFromJNI();

3、创建c文件

在工程根目录下创建 jni 目录, 然后创建一个c语言源文件, 在文件中引入 include <jni.h>。c语言方法声明形如

jstring
Java_com_example_hellojni_HelloJni_stringFromJNI( JNIEnv* env,jobject thiz )

jstring 是 Java语言中的String类型, 方法名格式为 : Java_完整包名类名_方法名();
-- JNIEnv参数 : 代表的是Java环境, 通过这个环境可以调用Java里面的方法;
-- jobject参数 : 调用C语言方法的对象, thiz对象表示当前的对象, 即调用JNI方法所在的类;

4、编写Android.mk文件

就好比常用的makefile,形如

LOCAL_PATH := $(call my-dir)include $(CLEAR_VARS)LOCAL_MODULE    := hello-jni
LOCAL_SRC_FILES := hello-jni.cinclude $(BUILD_SHARED_LIBRARY)

-- LOCAL_PATH : 代表mk文件所在的目录;
-- include $(CLEAR_VARS) : 编译工具函数, 通过该函数可以进行一些初始化操作;
-- LOCAL_MODULE : 编译后的 .so 后缀文件叫什么名字;
-- LOCAL_SRC_FILES: 指定编译的源文件名称;
-- include $(BUILD_SHARED_LIBRARY) : 告诉编译器需要生成动态库;

5、NDK编译生成动态库

利用上面写好的.mk文件,进入 cygdrive 找到windows目录下对应的文件, 编译完成之后, 会自动生成so文件并放在libs目录下, 之后就可以在Java中调用C语言方法了;

6、java中加载动态库

在Java类中的静态代码块中使用System.LoadLibrary()方法加载编译好的 .so 动态库,形如

static {System.loadLibrary("hello-jni");}

需要说明的是,调试JNI程序非常麻烦,无法进入c文件中进行单步调试,只能通过输出一些信息然后利用logcat进行调试,所以也可以先在vs里面把c文件的内容跑一遍简单验证一下。

参照上面的基本流程,具体到利用ffmpeg实现安卓摄像头数据的编码

第一步:我们声明如下四个Native方法

//JNI
//初始化,读取待编码数据的宽和高public native int initial(int width,int height);
//读取yuv数据进行编码public native int encode(byte[] yuvimage);
//清空缓存的帧public native int flush();
//清理public native int close();

第二步:对应的c文件内容如下,基本就是一个将yuv数据编码为H.264的flv文件的流程,唯一需要注意的就是安卓摄像头拍摄数据的像素格式为NV21,需要转换为YUV420P才能进行编码

/*** 基于FFmpeg安卓摄像头编码* FFmpeg Android Camera Encoder** 张晖 Hui Zhang* zhanghuicuc@gmail.com* 中国传媒大学/数字电视技术* Communication University of China / Digital TV Technology***/#include <stdio.h>
#include <time.h> #include "libavcodec/avcodec.h"
#include "libavformat/avformat.h"
#include "libswscale/swscale.h"
#include "libavutil/log.h"#ifdef ANDROID
#include <jni.h>
#include <android/log.h>
#define LOGE(format, ...)  __android_log_print(ANDROID_LOG_ERROR, "(>_<)", format, ##__VA_ARGS__)
#define LOGI(format, ...)  __android_log_print(ANDROID_LOG_INFO,  "(=_=)", format, ##__VA_ARGS__)
#else
#define LOGE(format, ...)  printf("(>_<) " format "\n", ##__VA_ARGS__)
#define LOGI(format, ...)  printf("(^_^) " format "\n", ##__VA_ARGS__)
#endifAVFormatContext *ofmt_ctx;
AVStream* video_st;
AVCodecContext* pCodecCtx;
AVCodec* pCodec;
AVPacket enc_pkt;
AVFrame *pFrameYUV;int framecnt = 0;
int yuv_width;
int yuv_height;
int y_length;
int uv_length;
int64_t start_time;//Output FFmpeg's av_log()
void custom_log(void *ptr, int level, const char* fmt, va_list vl){FILE *fp=fopen("/storage/emulated/0/av_log.txt","a+");if(fp){vfprintf(fp,fmt,vl);fflush(fp);fclose(fp);}
}JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_initial(JNIEnv *env, jobject obj,jint width,jint height)
{const char* out_path = "/sdcard/zhanghui/testffmpeg.flv";yuv_width=width;yuv_height=height;y_length=width*height;uv_length=width*height/4;//FFmpeg av_log() callbackav_log_set_callback(custom_log);av_register_all();//output initializeavformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", out_path);//output encoder initializepCodec = avcodec_find_encoder(AV_CODEC_ID_H264);if (!pCodec){LOGE("Can not find encoder!\n");return -1;}pCodecCtx = avcodec_alloc_context3(pCodec);pCodecCtx->pix_fmt = PIX_FMT_YUV420P;pCodecCtx->width = width;pCodecCtx->height = height;pCodecCtx->time_base.num = 1;pCodecCtx->time_base.den = 30;pCodecCtx->bit_rate = 800000;pCodecCtx->gop_size = 300;/* Some formats want stream headers to be separate. */if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)pCodecCtx->flags |= CODEC_FLAG_GLOBAL_HEADER;//H264 codec param//pCodecCtx->me_range = 16;//pCodecCtx->max_qdiff = 4;//pCodecCtx->qcompress = 0.6;pCodecCtx->qmin = 10;pCodecCtx->qmax = 51;//Optional ParampCodecCtx->max_b_frames = 3;// Set H264 preset and tuneAVDictionary *param = 0;av_dict_set(¶m, "preset", "ultrafast", 0);av_dict_set(¶m, "tune", "zerolatency", 0);if (avcodec_open2(pCodecCtx, pCodec, ¶m) < 0){LOGE("Failed to open encoder!\n");return -1;}//Add a new stream to output,should be called by the user before avformat_write_header() for muxingvideo_st = avformat_new_stream(ofmt_ctx, pCodec);if (video_st == NULL){return -1;}video_st->time_base.num = 1;video_st->time_base.den = 30;video_st->codec = pCodecCtx;//Open output URL,set before avformat_write_header() for muxingif (avio_open(&ofmt_ctx->pb, out_path, AVIO_FLAG_READ_WRITE) < 0){LOGE("Failed to open output file!\n");return -1;}//Write File Headeravformat_write_header(ofmt_ctx, NULL);start_time = av_gettime();return 0;
}JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_encode(JNIEnv *env, jobject obj, jbyteArray yuv)
{int ret;int enc_got_frame=0;int i=0;pFrameYUV = avcodec_alloc_frame();uint8_t *out_buffer = (uint8_t *)av_malloc(avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height));avpicture_fill((AVPicture *)pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);//安卓摄像头数据为NV21格式,此处将其转换为YUV420P格式jbyte* in= (jbyte*)(*env)->GetByteArrayElements(env,yuv,0);memcpy(pFrameYUV->data[0],in,y_length);for(i=0;i<uv_length;i++){*(pFrameYUV->data[2]+i)=*(in+y_length+i*2);*(pFrameYUV->data[1]+i)=*(in+y_length+i*2+1);}pFrameYUV->format = AV_PIX_FMT_YUV420P;pFrameYUV->width = yuv_width;pFrameYUV->height = yuv_height;enc_pkt.data = NULL;enc_pkt.size = 0;av_init_packet(&enc_pkt);ret = avcodec_encode_video2(pCodecCtx, &enc_pkt, pFrameYUV, &enc_got_frame);av_frame_free(&pFrameYUV);if (enc_got_frame == 1){LOGI("Succeed to encode frame: %5d\tsize:%5d\n", framecnt, enc_pkt.size);framecnt++;enc_pkt.stream_index = video_st->index;//Write PTSAVRational time_base = ofmt_ctx->streams[0]->time_base;//{ 1, 1000 };AVRational r_framerate1 = {60, 2 };//{ 50, 2 };AVRational time_base_q = { 1, AV_TIME_BASE };//Duration between 2 frames (us)int64_t calc_duration = (double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1));    //内部时间戳//Parameters//enc_pkt.pts = (double)(framecnt*calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));enc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);enc_pkt.dts = enc_pkt.pts;enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base); //(double)(calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));enc_pkt.pos = -1;//Delayint64_t pts_time = av_rescale_q(enc_pkt.dts, time_base, time_base_q);int64_t now_time = av_gettime() - start_time;if (pts_time > now_time)av_usleep(pts_time - now_time);ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);av_free_packet(&enc_pkt);}return 0;
}JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_flush(JNIEnv *env, jobject obj)
{int ret;int got_frame;AVPacket enc_pkt;if (!(ofmt_ctx->streams[0]->codec->codec->capabilities &CODEC_CAP_DELAY))return 0;while (1) {enc_pkt.data = NULL;enc_pkt.size = 0;av_init_packet(&enc_pkt);ret = avcodec_encode_video2(ofmt_ctx->streams[0]->codec, &enc_pkt,NULL, &got_frame);if (ret < 0)break;if (!got_frame){ret = 0;break;}LOGI("Flush Encoder: Succeed to encode 1 frame!\tsize:%5d\n", enc_pkt.size);//Write PTSAVRational time_base = ofmt_ctx->streams[0]->time_base;//{ 1, 1000 };AVRational r_framerate1 = { 60, 2 };AVRational time_base_q = { 1, AV_TIME_BASE };//Duration between 2 frames (us)int64_t calc_duration = (double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1));    //内部时间戳//Parametersenc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);enc_pkt.dts = enc_pkt.pts;enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base);//转换PTS/DTS(Convert PTS/DTS)enc_pkt.pos = -1;framecnt++;ofmt_ctx->duration = enc_pkt.duration * framecnt;/* mux encoded frame */ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);if (ret < 0)break;}//Write file trailerav_write_trailer(ofmt_ctx);return 0;
}JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_close(JNIEnv *env, jobject obj)
{if (video_st)avcodec_close(video_st->codec);avio_close(ofmt_ctx->pb);avformat_free_context(ofmt_ctx);return 0;
}

第三步:编写Android.mk如下,这里要在jni目录下放入ffmpeg的头文件,就跟平时的调用方法一样

LOCAL_PATH := $(call my-dir)# FFmpeg library
include $(CLEAR_VARS)
LOCAL_MODULE := avcodec
LOCAL_SRC_FILES := libavcodec-56.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := avdevice
LOCAL_SRC_FILES := libavdevice-56.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := avfilter
LOCAL_SRC_FILES := libavfilter-5.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := avformat
LOCAL_SRC_FILES := libavformat-56.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := avutil
LOCAL_SRC_FILES := libavutil-54.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := postproc
LOCAL_SRC_FILES := libpostproc-53.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := swresample
LOCAL_SRC_FILES := libswresample-1.so
include $(PREBUILT_SHARED_LIBRARY)include $(CLEAR_VARS)
LOCAL_MODULE := swscale
LOCAL_SRC_FILES := libswscale-3.so
include $(PREBUILT_SHARED_LIBRARY)# Program
include $(CLEAR_VARS)
LOCAL_MODULE := encode
LOCAL_SRC_FILES :=encode.c
LOCAL_C_INCLUDES += $(LOCAL_PATH)/include
LOCAL_LDLIBS := -llog -lz
LOCAL_SHARED_LIBRARIES := avcodec avdevice avfilter avformat avutil postproc swresample swscale
include $(BUILD_SHARED_LIBRARY)

第四步:使用cygwin切换到当前项目的jni目录下,输入ndk-build进行编译即可,如下

此时就可以在当前项目的libs目录下看到ffmpeg所有的类库以及我们自己的类库,我这里是libencode.so,如下

第五步:在java中加载动态库

static{System.loadLibrary("avutil-54");System.loadLibrary("swresample-1");System.loadLibrary("avcodec-56");System.loadLibrary("avformat-56");System.loadLibrary("swscale-3");System.loadLibrary("postproc-53");System.loadLibrary("avfilter-5");System.loadLibrary("avdevice-56");System.loadLibrary("encode");}

至此,就可以在java中调用我们声明的四个方法了。

java部分获取摄像头数据并编码的流程

简单来说,就是利用Camera的PreviewCallback获得摄像头数据,在通过AsyncTask开启后台线程将摄像头数据进行编码。这里为了避免编码过程占用过多的硬件资源,将编码视频宽和高设置为了640和480,。

这里有两个坑,一是onPreviewFrame方法的arg0参数就是YUV数据了,不要再转换为YuvImage对象了,否则会在头部加上一些多余的信息,导致编码错误,二是用于清空缓存帧的flush方法不能在oncreate主线程中调用,否则会导致程序闪退,目前还不清楚原因,所以这里连同close()方法一起放到了onPause方法中进行调用,在安卓开发方面我还是新手,希望有了解这个问题怎么解决的朋友多多指教。

package com.zhanghui.test;import java.io.IOException;
import android.annotation.TargetApi;
import android.app.Activity;
import android.content.pm.PackageManager;
import android.hardware.Camera;
import android.os.AsyncTask;
import android.os.Build;
import android.os.Bundle;
import android.util.Log;
import android.view.Menu;
import android.view.MenuItem;
import android.view.SurfaceHolder;
import android.view.SurfaceView;
import android.view.View;
import android.widget.Button;
import android.widget.Toast;@SuppressWarnings("deprecation")
public class MainActivity extends Activity {private static final String TAG= "MainActivity";private Button mTakeButton;private Camera mCamera;private SurfaceView mSurfaceView;private SurfaceHolder mSurfaceHolder;private boolean isRecording = false;private class StreamTask extends AsyncTask<Void, Void, Void>{private byte[] mData;//构造函数StreamTask(byte[] data){this.mData = data;}@Overrideprotected Void doInBackground(Void... params) {   // TODO Auto-generated method stubif(mData!=null){Log.i(TAG, "fps: " + mCamera.getParameters().getPreviewFrameRate());         encode(mData);}return null;}        }   private StreamTask mStreamTask;@Overrideprotected void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState);setContentView(R.layout.activity_main);final Camera.PreviewCallback mPreviewCallbacx=new Camera.PreviewCallback() {@Overridepublic void onPreviewFrame(byte[] arg0, Camera arg1) {// TODO Auto-generated method stubif(null != mStreamTask){switch(mStreamTask.getStatus()){case RUNNING:return;case PENDING:                                   mStreamTask.cancel(false);                     break;                      }}mStreamTask = new StreamTask(arg0);mStreamTask.execute((Void)null);}};mTakeButton=(Button)findViewById(R.id.take_button);PackageManager pm=this.getPackageManager();boolean hasCamera=pm.hasSystemFeature(PackageManager.FEATURE_CAMERA) ||pm.hasSystemFeature(PackageManager.FEATURE_CAMERA_FRONT) ||Build.VERSION.SDK_INT<Build.VERSION_CODES.GINGERBREAD;if(!hasCamera)mTakeButton.setEnabled(false);mTakeButton.setOnClickListener(new View.OnClickListener() {    @Overridepublic void onClick(View arg0) {// TODO Auto-generated method stubif(mCamera!=null){if (isRecording) {                      mTakeButton.setText("Start");                   mCamera.setPreviewCallback(null);    Toast.makeText(MainActivity.this, "encode done", Toast.LENGTH_SHORT).show();                                                                   isRecording = false;               }else {  mTakeButton.setText("Stop");initial(mCamera.getParameters().getPreviewSize().width,mCamera.getParameters().getPreviewSize().height);mCamera.setPreviewCallback(mPreviewCallbacx);isRecording = true;  } }}});mSurfaceView=(SurfaceView)findViewById(R.id.surfaceView1);SurfaceHolder holder=mSurfaceView.getHolder();holder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);holder.addCallback(new SurfaceHolder.Callback() {@Overridepublic void surfaceDestroyed(SurfaceHolder arg0) {// TODO Auto-generated method stubif(mCamera!=null){mCamera.stopPreview();mSurfaceView = null;  mSurfaceHolder = null;   }}@Overridepublic void surfaceCreated(SurfaceHolder arg0) {// TODO Auto-generated method stubtry{if(mCamera!=null){mCamera.setPreviewDisplay(arg0);mSurfaceHolder=arg0;}}catch(IOException exception){Log.e(TAG, "Error setting up preview display", exception);}}@Overridepublic void surfaceChanged(SurfaceHolder arg0, int arg1, int arg2, int arg3) {// TODO Auto-generated method stubif(mCamera==null) return;Camera.Parameters parameters=mCamera.getParameters();           parameters.setPreviewSize(640,480);parameters.setPictureSize(640,480);mCamera.setParameters(parameters);try{mCamera.startPreview();mSurfaceHolder=arg0;}catch(Exception e){Log.e(TAG, "could not start preview", e);mCamera.release();mCamera=null;}}});}@TargetApi(9)@Overrideprotected void onResume(){super.onResume();if(Build.VERSION.SDK_INT>=Build.VERSION_CODES.GINGERBREAD){mCamera=Camera.open(0);}else{mCamera=Camera.open();}}@Overrideprotected void onPause(){super.onPause();flush();close();if(mCamera!=null){mCamera.release();mCamera=null;}}@Overridepublic boolean onCreateOptionsMenu(Menu menu) {// Inflate the menu; this adds items to the action bar if it is present.getMenuInflater().inflate(R.menu.main, menu);return true;}@Overridepublic boolean onOptionsItemSelected(MenuItem item) {// Handle action bar item clicks here. The action bar will// automatically handle clicks on the Home/Up button, so long// as you specify a parent activity in AndroidManifest.xml.int id = item.getItemId();if (id == R.id.action_settings) {return true;}return super.onOptionsItemSelected(item);}//JNIpublic native int initial(int width,int height);public native int encode(byte[] yuvimage);public native int flush();public native int close();static{System.loadLibrary("avutil-54");System.loadLibrary("swresample-1");System.loadLibrary("avcodec-56");System.loadLibrary("avformat-56");System.loadLibrary("swscale-3");System.loadLibrary("postproc-53");System.loadLibrary("avfilter-5");System.loadLibrary("avdevice-56");System.loadLibrary("encode");}
}

至此,就完成了全部功能的开发,程序截图如下

首先由用户按下take键开始摄像

此时按键转为stop,按下即可停止摄像

按下stop后,即停止摄像,弹出encode done信息,退出程序即可在对应目录下看到编码的flv视频

关注下方公众号,回复“手机摄像头编码”,查看源码地址

关注公众号,掌握更多多媒体领域知识与资讯

文章帮到你了?可以扫描如下二维码进行打赏~,打赏多少您随意~

ffmpeg综合应用示例(三)——安卓手机摄像头编码相关推荐

  1. java手机av_ffmpeg综合应用示例(三)——安卓手机摄像头编码

    /** * 基于FFmpeg安卓摄像头编码 * FFmpeg Android Camera Encoder * * 张晖 Hui Zhang * zhanghuicuc@gmail.com * 中国传 ...

  2. ffmpeg综合应用示例(一)——摄像头直播

    本文的示例将实现:读取PC摄像头视频数据并以RTMP协议发送为直播流.示例包含了 1.ffmpeg的libavdevice的使用 2.视频解码.编码.推流的基本流程 具有较强的综合性. 要使用liba ...

  3. 电脑使用android手机摄像头,电脑怎么使用安卓手机摄像头 电脑使用手机摄像头的方法-电脑教程...

    现在安卓手机基本上都配备了1300w像素,那么这个高的像素是不是只有在手机上拍照的功能呢?答案是否定的,这里教大家物尽其用,来弥补笔记本和usb摄像头的缺点.也就是在电脑上使用安卓手机的摄像头.从而在 ...

  4. JS调用安卓手机摄像头扫描二维码并用JS解析二维码

    项目要求: 使用H5模仿微信扫一扫付款功能 经过一系列的查找最后发现可以使用 JS调用手机摄像头然后用画布把当前摄像头的数据转成Base64的png图片,经过QrCode直接再本地识别. 优点: 兼容 ...

  5. 小知识--安卓手机拨号编码

    "*#06#" 手机的串号,即 IMEI 码.它是 International Mobile Equipment Identity( 国际移动设备身份 ) 的简称,就像是手机的身份 ...

  6. ffmpeg综合应用示例(二)——为直播流添加特效

    在上一篇文章中,讲解了如何利用ffmpeg实现摄像头直播,本文将在此基础上,实现一个可以选择各种视频滤镜的摄像头直播示例.本文包含以下内容 1.AVFilter的基本介绍 2.如何利用ffmpeg命令 ...

  7. win10调用安卓手机摄像头

    可用于台式机和笔记本没有摄像头的情况或者摄像头坏掉的情况 本人是转载up:晨钟酱Official 本人亲测教程 教程:旧手机不要扔!一分钟教你做电脑4K摄像头_哔哩哔哩_bilibili 软件下载: ...

  8. 安卓手机摄像头维修流程

    第一步:排除摄像头本体坏 测试方法--切换前后摄像头,如果都不能打开,初步检测是主板问题,由于可能单个摄像头损坏会导致其他摄像头不能正常工作,可以单独拆下摄像头来确认故障位置. 第二步:目测检查对应相 ...

  9. 【FFMPEG】华为新老两手机平台编码的视频,在同一车机上投屏解码时间慢的问题分析

    一.问题背景 今天上班时,收到华为那边咨询邮件: 分别使用华为新平台手机.老平台手机 各一台,在同一台车机上投屏HICAR , 同样是H264编码,1920×720的视频数据, 新平台手机编码的视频, ...

最新文章

  1. 如何通过日期属性对数组进行排序
  2. Nginx反向代理WebSocket
  3. 程序员是吃青春饭的吗?未来发展前途如何?
  4. python中的类装饰器应用场景_这是我见过最全面的Python装饰器教程了!
  5. C#人脸识别入门篇--提取人脸特征值及人脸识别
  6. Restlet入门例子 - RESTful web framwork for java
  7. Nutanix推出云基础架构远程管理IT解决方案
  8. Unity 发布hololens注意事项
  9. 守望先锋 获取cdn配置_英特尔酷睿i5 9400F万金油配置推荐 适合吃鸡 守望先锋
  10. ArcView GIS 应用与开发技术(5)-统计图
  11. QT与游戏手柄测试(数据与UI相连,ui界面作出反应)
  12. 如何实现Iframe透明
  13. WPS标题段前间距设置无效解决方案
  14. 离线语音合成使用——科大讯飞or云知音or百度语音
  15. 全角半角英文字母及符号
  16. 拉丁舞身形研究之恰恰恰
  17. java gette_Java setter,getter(滚压模具)
  18. 4键电子手表说明书_电子表通用说明书
  19. 安装计算机主板时应注意的问题,电脑DIY:电脑主板的安装以及注意事项
  20. 线性代数几种特殊类型行列式_及其计算

热门文章

  1. 【23考研】计算机择校信息库-山西高校计算机相关专业22专业目录分类汇总(按专业课分类汇总)
  2. java调用接口失败后重试
  3. 极光推送java后台对接
  4. android wifi刷新数据与连接动画冲突问题的解决方案
  5. 2018杭州云栖大会 - 容器区块链分享预告
  6. linux好多命令用不了,linux系统所有命令突然用不了的解决方法
  7. 战地1如何修改服务器地址,战地1修改服务器地址
  8. 低频R型变压器铁芯好坏如何判断?
  9. TCPIP协议学习笔记一(概述三)
  10. go语言基础学习13章节详细总结欢迎一起入门学习