我的视频课程(基础):《(NDK)FFmpeg打造Android万能音频播放器》

我的视频课程(进阶):《(NDK)FFmpeg打造Android视频播放器》

我的视频课程(编码直播推流):《Android视频编码和直播推流》

我的视频课程(C++ OpenGL):《Android C++ OpenGL教程》

先定个小目标

通过本篇博客,我们会很容易的使用Android底层库OpenSL ES来播放音频文件(包括assets、uri和pcm)。

一、首先OpenSL ES是什么?

OpenSL ES (Open Sound Library for Embedded Systems)是无授权费、跨平台、针对嵌入式系统精心优化的硬件音频加速API。它为嵌入式移动多媒体设备上的本地应用程序开发者提供标准化, 高性能,低响应时间的音频功能实现方法,并实现软/硬件音频性能的直接跨平台部署,降低执行难度,促进高级音频市场的发展。——摘自百度百科。

简单来说OpenSL ES是一个嵌入式跨平台免费的音频处理库。

二、OpenSL ES库在哪里?

Android的OpenSL ES库是在NDK的platforms文件夹对应android平台先相应cpu类型里面,如:

三、OpenSL ES开发流程和重要接口

通过分析android-ndk中native-audio的代码,发现了用OpenSL ES来开发应用也是有套路(规律)可寻的:

3.1、OpenSL ES的开发流程主要有如下6个步骤:

1、创建接口对象

2、设置混音器

3、创建播放器(录音器)

4、设置缓冲队列和回调函数

5、设置播放状态

6、启动回调函数

其中4和6是播放PCM等数据格式的音频是需要用到的。

3.2、OpenSL ES中最重要的接口类SLObjectItf

通过SLObjectItf接口类我们可以创建所需要的各种类型的类接口,比如:

创建引擎接口对象:SLObjectItf engineObject

创建混音器接口对象:SLObjectItf outputMixObject

创建播放器接口对象:SLObjectItf playerObject

以上等等都是通过SLObjectItf来创建的,知道了这个规则后,看源代码就会轻松很多了

3.3、利用SLObjectItf来创建具体的接口对象实例

OpenSL ES中也有具体的接口类,比如(引擎:SLEngineItf,播放器:SLPlayItf,声音控制器:SLVolumeItf等等)。

3.4、创建引擎并实现它

OpenSL ES中开始的第一步都是声明SLObjectItf接口类型的引擎接口对象engineObject,然后用方法slCreateEngine创建一个引擎接口对象;创建好引擎接口对象后,需要用SLObjectItf的Realize方法来实现engineObject;最后用SLObjectItf的GetInterface方法来初始化SLEngnineItf对象实例。如:

SLObjectItf engineObject = NULL;//用SLObjectItf声明引擎接口对象
SLEngineItf engineEngine = NULL;//声明具体的引擎对象实例void createEngine()
{SLresult result;//返回结果result = slCreateEngine(&engineObject, 0, NULL, 0, NULL, NULL);//第一步创建引擎result = (*engineObject)->Realize(engineObject, SL_BOOLEAN_FALSE);//实现(Realize)engineObject接口对象result = (*engineObject)->GetInterface(engineObject, SL_IID_ENGINE, &engineEngine);//通过engineObject的GetInterface方法初始化engineEngine
}

3.4、利用引擎对象创建其他接口对象

其他接口对象(SLObjectItf outputMixObject,SLObjectItf playerObject)等都是用引擎接口对象创建的(具体的接口对象需要的参数这里就说了,可参照ndk例子里面的),如:

//混音器
SLObjectItf outputMixObject = NULL;//用SLObjectItf创建混音器接口对象
SLEnvironmentalReverbItf outputMixEnvironmentalReverb = NULL;创建具体的混音器对象实例result = (*engineEngine)->CreateOutputMix(engineEngine, &outputMixObject, 1, mids, mreq);//利用引擎接口对象创建混音器接口对象
result = (*outputMixObject)->Realize(outputMixObject, SL_BOOLEAN_FALSE);//实现(Realize)混音器接口对象
result = (*outputMixObject)->GetInterface(outputMixObject, SL_IID_ENVIRONMENTALREVERB, &outputMixEnvironmentalReverb);//利用混音器接口对象初始化具体混音器实例//播放器
SLObjectItf playerObject = NULL;//用SLObjectItf创建播放器接口对象
SLPlayItf playerPlay = NULL;//创建具体的播放器对象实例result = (*engineEngine)->CreateAudioPlayer(engineEngine, &playerObject, &audioSrc, &audioSnk, 3, ids, req);//利用引擎接口对象创建播放器接口对象
result = (*playerObject)->Realize(playerObject, SL_BOOLEAN_FALSE);//实现(Realize)播放器接口对象
result = (*playerObject)->GetInterface(playerObject, SL_IID_PLAY, &playerPlay);//初始化具体的播放器对象实例

3.6、最后就是使用创建好的具体对象实例来实现具体的功能。

四、具体列子

首先导入OpenSL ES和其他必须的库

target_link_libraries( # Specifies the target library.openslaudioywl5320OpenSLESandroid# Links the target library to the log library# included in the NDK.${log-lib} )

4.1、播放assets文件

第一步:创建引擎

第二步:创建混音器

第三步:创建播放器

第四步:设置播放状态

JNIEXPORT void JNICALL
Java_com_ywl5320_openslaudio_MainActivity_playAudioByOpenSL_1assets(JNIEnv *env, jobject instance, jobject assetManager, jstring filename) {release();const char *utf8 = (*env)->GetStringUTFChars(env, filename, NULL);// use asset manager to open asset by filenameAAssetManager* mgr = AAssetManager_fromJava(env, assetManager);AAsset* asset = AAssetManager_open(mgr, utf8, AASSET_MODE_UNKNOWN);(*env)->ReleaseStringUTFChars(env, filename, utf8);// open asset as file descriptoroff_t start, length;int fd = AAsset_openFileDescriptor(asset, &start, &length);AAsset_close(asset);SLresult result;//第一步,创建引擎createEngine();//第二步,创建混音器const SLInterfaceID mids[1] = {SL_IID_ENVIRONMENTALREVERB};const SLboolean mreq[1] = {SL_BOOLEAN_FALSE};result = (*engineEngine)->CreateOutputMix(engineEngine, &outputMixObject, 1, mids, mreq);(void)result;result = (*outputMixObject)->Realize(outputMixObject, SL_BOOLEAN_FALSE);(void)result;result = (*outputMixObject)->GetInterface(outputMixObject, SL_IID_ENVIRONMENTALREVERB, &outputMixEnvironmentalReverb);if (SL_RESULT_SUCCESS == result) {result = (*outputMixEnvironmentalReverb)->SetEnvironmentalReverbProperties(outputMixEnvironmentalReverb, &reverbSettings);(void)result;}//第三步,设置播放器参数和创建播放器// 1、 配置 audio sourceSLDataLocator_AndroidFD loc_fd = {SL_DATALOCATOR_ANDROIDFD, fd, start, length};SLDataFormat_MIME format_mime = {SL_DATAFORMAT_MIME, NULL, SL_CONTAINERTYPE_UNSPECIFIED};SLDataSource audioSrc = {&loc_fd, &format_mime};// 2、 配置 audio sinkSLDataLocator_OutputMix loc_outmix = {SL_DATALOCATOR_OUTPUTMIX, outputMixObject};SLDataSink audioSnk = {&loc_outmix, NULL};// 创建播放器const SLInterfaceID ids[3] = {SL_IID_SEEK, SL_IID_MUTESOLO, SL_IID_VOLUME};const SLboolean req[3] = {SL_BOOLEAN_TRUE, SL_BOOLEAN_TRUE, SL_BOOLEAN_TRUE};result = (*engineEngine)->CreateAudioPlayer(engineEngine, &fdPlayerObject, &audioSrc, &audioSnk, 3, ids, req);(void)result;// 实现播放器result = (*fdPlayerObject)->Realize(fdPlayerObject, SL_BOOLEAN_FALSE);(void)result;// 得到播放器接口result = (*fdPlayerObject)->GetInterface(fdPlayerObject, SL_IID_PLAY, &fdPlayerPlay);(void)result;// 得到声音控制接口result = (*fdPlayerObject)->GetInterface(fdPlayerObject, SL_IID_VOLUME, &fdPlayerVolume);(void)result;//第四步,设置播放状态if (NULL != fdPlayerPlay) {result = (*fdPlayerPlay)->SetPlayState(fdPlayerPlay, SL_PLAYSTATE_PLAYING);(void)result;}//设置播放音量 (100 * -50:静音 )(*fdPlayerVolume)->SetVolumeLevel(fdPlayerVolume, 20 * -50);}

4.2、播放Uri连接

第一步:创建引擎

第二步:创建混音器

第三步:创建播放器

第四步:设置播放状态

JNIEXPORT void JNICALL
Java_com_ywl5320_openslaudio_MainActivity_playAudioByOpenSL_1uri(JNIEnv *env, jobject instance, jstring uri) {SLresult result;release();// convert Java string to UTF-8const char *utf8 = (*env)->GetStringUTFChars(env, uri, NULL);//第一步,创建引擎createEngine();//第二步,创建混音器const SLInterfaceID mids[1] = {SL_IID_ENVIRONMENTALREVERB};const SLboolean mreq[1] = {SL_BOOLEAN_FALSE};result = (*engineEngine)->CreateOutputMix(engineEngine, &outputMixObject, 1, mids, mreq);(void)result;result = (*outputMixObject)->Realize(outputMixObject, SL_BOOLEAN_FALSE);(void)result;result = (*outputMixObject)->GetInterface(outputMixObject, SL_IID_ENVIRONMENTALREVERB, &outputMixEnvironmentalReverb);if (SL_RESULT_SUCCESS == result) {result = (*outputMixEnvironmentalReverb)->SetEnvironmentalReverbProperties(outputMixEnvironmentalReverb, &reverbSettings);(void)result;}//第三步,设置播放器参数和创建播放器// configure audio source// (requires the INTERNET permission depending on the uri parameter)SLDataLocator_URI loc_uri = {SL_DATALOCATOR_URI, (SLchar *) utf8};SLDataFormat_MIME format_mime = {SL_DATAFORMAT_MIME, NULL, SL_CONTAINERTYPE_UNSPECIFIED};SLDataSource audioSrc = {&loc_uri, &format_mime};// configure audio sinkSLDataLocator_OutputMix loc_outmix = {SL_DATALOCATOR_OUTPUTMIX, outputMixObject};SLDataSink audioSnk = {&loc_outmix, NULL};// create audio playerconst SLInterfaceID ids[3] = {SL_IID_SEEK, SL_IID_MUTESOLO, SL_IID_VOLUME};const SLboolean req[3] = {SL_BOOLEAN_TRUE, SL_BOOLEAN_TRUE, SL_BOOLEAN_TRUE};result = (*engineEngine)->CreateAudioPlayer(engineEngine, &uriPlayerObject, &audioSrc, &audioSnk, 3, ids, req);(void)result;// release the Java string and UTF-8(*env)->ReleaseStringUTFChars(env, uri, utf8);// realize the playerresult = (*uriPlayerObject)->Realize(uriPlayerObject, SL_BOOLEAN_FALSE);// this will always succeed on Android, but we check result for portability to other platformsif (SL_RESULT_SUCCESS != result) {(*uriPlayerObject)->Destroy(uriPlayerObject);uriPlayerObject = NULL;return;}// get the play interfaceresult = (*uriPlayerObject)->GetInterface(uriPlayerObject, SL_IID_PLAY, &uriPlayerPlay);(void)result;// get the volume interfaceresult = (*uriPlayerObject)->GetInterface(uriPlayerObject, SL_IID_VOLUME, &uriPlayerVolume);(void)result;
//第四步,设置播放状态if (NULL != uriPlayerPlay) {// set the player's stateresult = (*uriPlayerPlay)->SetPlayState(uriPlayerPlay, SL_PLAYSTATE_PLAYING);(void)result;}//设置播放音量 (100 * -50:静音 )
//    (*uriPlayerVolume)->SetVolumeLevel(uriPlayerVolume, 0 * -50);
}

4.3、播放pcm文件(集成到ffmpeg时,也是播放ffmpeg转换成的pcm格式的数据),这里为了模拟是直接读取的pcm格式的音频文件。
4.3.1、创建播放器和混音器

//第一步,创建引擎createEngine();//第二步,创建混音器const SLInterfaceID mids[1] = {SL_IID_ENVIRONMENTALREVERB};const SLboolean mreq[1] = {SL_BOOLEAN_FALSE};result = (*engineEngine)->CreateOutputMix(engineEngine, &outputMixObject, 1, mids, mreq);(void)result;result = (*outputMixObject)->Realize(outputMixObject, SL_BOOLEAN_FALSE);(void)result;result = (*outputMixObject)->GetInterface(outputMixObject, SL_IID_ENVIRONMENTALREVERB, &outputMixEnvironmentalReverb);if (SL_RESULT_SUCCESS == result) {result = (*outputMixEnvironmentalReverb)->SetEnvironmentalReverbProperties(outputMixEnvironmentalReverb, &reverbSettings);(void)result;}SLDataLocator_OutputMix outputMix = {SL_DATALOCATOR_OUTPUTMIX, outputMixObject};SLDataSink audioSnk = {&outputMix, NULL};

4.3.2、设置pcm格式的频率位数等信息并创建播放器

// 第三步,配置PCM格式信息SLDataLocator_AndroidSimpleBufferQueue android_queue={SL_DATALOCATOR_ANDROIDSIMPLEBUFFERQUEUE,2};SLDataFormat_PCM pcm={SL_DATAFORMAT_PCM,//播放pcm格式的数据2,//2个声道(立体声)SL_SAMPLINGRATE_44_1,//44100hz的频率SL_PCMSAMPLEFORMAT_FIXED_16,//位数 16位SL_PCMSAMPLEFORMAT_FIXED_16,//和位数一致就行SL_SPEAKER_FRONT_LEFT | SL_SPEAKER_FRONT_RIGHT,//立体声(前左前右)SL_BYTEORDER_LITTLEENDIAN//结束标志};SLDataSource slDataSource = {&android_queue, &pcm};const SLInterfaceID ids[3] = {SL_IID_BUFFERQUEUE, SL_IID_EFFECTSEND, SL_IID_VOLUME};const SLboolean req[3] = {SL_BOOLEAN_TRUE, SL_BOOLEAN_TRUE, SL_BOOLEAN_TRUE};result = (*engineEngine)->CreateAudioPlayer(engineEngine, &pcmPlayerObject, &slDataSource, &audioSnk, 3, ids, req);//初始化播放器(*pcmPlayerObject)->Realize(pcmPlayerObject, SL_BOOLEAN_FALSE);//    得到接口后调用  获取Player接口(*pcmPlayerObject)->GetInterface(pcmPlayerObject, SL_IID_PLAY, &pcmPlayerPlay);

4.3.3、设置缓冲队列和回调函数

//    注册回调缓冲区 获取缓冲队列接口(*pcmPlayerObject)->GetInterface(pcmPlayerObject, SL_IID_BUFFERQUEUE, &pcmBufferQueue);//缓冲接口回调(*pcmBufferQueue)->RegisterCallback(pcmBufferQueue, pcmBufferCallBack, NULL);

回调函数:

void * pcmBufferCallBack(SLAndroidBufferQueueItf bf, void * context)
{//assert(NULL == context);getPcmData(&buffer);// for streaming playback, replace this test by logic to find and fill the next bufferif (NULL != buffer) {SLresult result;// enqueue another bufferresult = (*pcmBufferQueue)->Enqueue(pcmBufferQueue, buffer, 44100 * 2 * 2);// the most likely other result is SL_RESULT_BUFFER_INSUFFICIENT,// which for this code example would indicate a programming error}
}

读取pcm格式的文件:

void getPcmData(void **pcm)
{while(!feof(pcmFile)){fread(out_buffer, 44100 * 2 * 2, 1, pcmFile);if(out_buffer == NULL){LOGI("%s", "read end");break;} else{LOGI("%s", "reading");}*pcm = out_buffer;break;}
}

4.3.4、设置播放状态并手动开始调用回调函数

//    获取播放状态接口(*pcmPlayerPlay)->SetPlayState(pcmPlayerPlay, SL_PLAYSTATE_PLAYING);//    主动调用回调函数开始工作pcmBufferCallBack(pcmBufferQueue, NULL);

注意:在回调函数中result = (*pcmBufferQueue)->Enqueue(pcmBufferQueue, buffer, 44100 * 2 * 2);,最后的“44100*2*2”是buffer的大小,因为我这里是指定了没读取一次就从pcm文件中读取了“44100*2*2”个字节,所以可以正常播放,如果是利用ffmpeg来获取pcm数据源,那么实际大小要根据每个AVframe的具体大小来定,这样才能正常播放出声音!!!(44100 * 2 * 2 表示:44100是频率HZ,2是立体声双通道,2是采用的16位采样即2个字节,所以总的字节数就是:44100 * 2 * 2)

好的,以上就是android利用OpenSL ES来播放音频的过程,不知各位看官是否明白了,文末提供源码和音频文件的下载。好了,开始双十一的枪枪抢吧~

GitHub:Android_OpenSl_Audio

Android通过OpenSL ES播放音频套路详解相关推荐

  1. 音视频系列四 ffmpeg配合opensl es播放音频

    文章目录 一 解码成PCM 二 opensl es创建引擎,混音器 创建引擎 创建混音器 创建播放器,注册回调函数 一 解码成PCM 流程其实和视频差不多,参考播放视频的代码,稍作增改 先定义后面需要 ...

  2. 音视频开发之旅(36) -FFmpeg +OpenSL ES实现音频解码和播放

    目录 OpenSL ES基本介绍 OpenSL ES播放音频流程 代码实现 遇到的问题 资料 收获 上一篇我们通过AudioTrack实现了FFmpeg解码后的PCM音频数据的播放,在Android上 ...

  3. Android直播开发之旅(13):使用FFmpeg+OpenSL ES播放PCM音频

    文章目录 1. OpenSL ES原理 1.1 OpenSL ES核心API讲解 1.1.1 对象(Object)与接口(Interface) 1.1.2 [OpenSL ES的状态机制](https ...

  4. FFmpeg从入门到入魔(4):OpenSL ES播放PCM音频

    1. OpenSL ES原理  OpenSL ES(Open Sound Library for Embedded Systems),即嵌入式音频加速标准,是一个无授权费.跨平台.针对嵌入式系统精心优 ...

  5. Android FFmpeg开发(三),利用OpenSL ES实现音频渲染

    上篇文章我们利用FFmpeg+ANativeWindwo实现了视频的解码和渲染,已经完成视频画面在SurfaceView上显示.还没阅读上一篇文章的同学建议先阅读:Android FFmpeg开发(二 ...

  6. Android音视频学习系列(十) — 基于FFmpeg + OpenSL ES实现音频万能播放器

    系列文章 Android音视频学习系列(一) - JNI从入门到精通 Android音视频学习系列(二) - 交叉编译动态库.静态库的入门 Android音视频学习系列(三) - Shell脚本入门 ...

  7. Android音视频【十三】OpenSL ES介绍基于OpenSL ES实现音频采集

    人间观察 勿再别人的心中修行自己, 勿再自己的心中强求别人. 前言 最近写文章有点偷懒了,离上次写文章大概一个月了. 一般Android音频的采集在java层使用AudioRecord类进行采集. 但 ...

  8. android4.0 音频框架 opensl openmax,适用于android的OpenSL ES指南-面向Android的OpenSL ES

    本文将详细说明NDK中OpenSL ES™的实现与OpenSL ES 1.0.1参考规范的不同.在使用规范中的示例代码时,可能需要修改它以在Android上工作. 除非另有说明,所有功能都可以在And ...

  9. android open es录像,音频采集:Android基于OpenSL ES的实现

    前言 这篇文章简单介绍下移动端Android系统下利用OpenSL ES进行音频采集方法. 按照惯例先上一份源码 AudioRecordLib . OpenSL ES采集的核心实现在于 opensle ...

最新文章

  1. android项目获得所有运行程序
  2. Python之pandas:对pandas中dataframe数据中的索引输出、修改、重命名等详细攻略
  3. (原创)Android6.0亮屏流程分析
  4. Java基础--继承、this、super、抽象类
  5. Java DB嵌入式模式
  6. 局域网传文件_安卓用户福音!让文件传输摆脱数据线的束缚,自由穿梭
  7. 一位Facebook老员工的10点经验
  8. freeswitch 会议创建命令
  9. python中math isnan_带有Python示例的math.isnan()方法
  10. 史上最后一位数学全才——庞加莱
  11. CVPR2020论文列表(中英对照)
  12. 齐次线性方程组的解向量和基础解系
  13. Scrapy爬虫四步法:爬取51job网站
  14. 东芝笔记本电脑重装系统
  15. 《操作系统导论》学习笔记(六):逻辑地址空间管理
  16. springmvc入门:web.xml编写
  17. 【CQBZ模拟赛】星际旅行
  18. 开放网络–服务提供商的未来
  19. 过拟合详解:监督学习中不准确的“常识”
  20. 中国铁塔,室内分布系统

热门文章

  1. 2017-2020年智能家居发展趋势揭秘
  2. 爬取百度贴吧的标题,发帖人,发帖时间
  3. 大数据架构师进阶之路-技术学习路线
  4. 《杀死比尔》:解读邪典
  5. 国开mysql答案_国开《3868MySQL数据库应用-0006》期末机考【答案】
  6. python人脸识别考勤系统 dlib+OpenCV和Pyqt5、数据库sqlite 人脸识别系统 计算机 毕业设计 源码
  7. 在avr单片机(atmega16)上移植freertos
  8. chatgpt赋能python:Python升级所有包:一步引导所有Python开发者升级你的Python环境
  9. JAVA中阻塞队列的类别和区别(转载)
  10. 程序员发帖引争议!公务员香吗?哪来的优越感?