最近在阅读语音方向的论文,其中有个被提及很多的语音信号特征MFCC(Mel-Frequency Cepstral Coefficients),找到了基于python的语音库librosa(version=0.7.1)和python_speech_features(version=0.6),下文对这两个库计算MFCC的流程细节稍作梳理。

LibROSA - librosa 0.7.1 documentation​librosa.github.iopython_speech_features​pypi.org

一、librosa

1.源语音信号,shape = wav.length

wav, sample_rate = librosa.load(path, sr=22050, mono=True, offset=0.0, duration=None,dtype=np.float32, res_type='kaiser_best')  #加载语音文件得到原始数据

2.填充及分帧(无预加重处理),分帧后所有帧的shape = n_ftt * n_frames

y = numpy.pad(array, pad_width, mode, **kwargs)     # 原函数及参数
y = numpy.pad(wav, int(n_fft // 2), mode='reflect') # 默认,n_fft 为傅里叶变换维度
y = numpy.pad(wav, (0,pad_need), mode='constant')   # 自定义

librosa调用numpy对源语音数据进行填充,默认模式是'reflect'进行镜像填充,举个例子:

对序列[1,2,3,4,5]进行左填充2个、右填充3个,左边以1作对称轴填充[3,2],右边以5作对称轴填充[4,3,2],最后结果为[3,2,1,2,3,4,5,4,3,2]。

自定义模式是按照python_speech_features的方式设置参数的,pad_need是经过计算得到的需要填充的数据数量,在下文说明。

y_frames = util.frame(y, frame_length=n_fft, hop_length=hop_length) # hop_length为帧移,librosa中默认取窗长的四分之一

一般来说 帧长 = 窗长 = 傅里叶变换维度,否则要进行填充或者截断处理。通过阅读源码发现,librosa调用的分帧方式和python_speech_features一样,这和librosa.feature.melspectrogram()参数里的center描述有所冲突,我把两者对同一语音文件的分帧结果输出到excel文件进行了对比,结果是一样的,当然分帧之前的填充方式也修改成了一致。

3.对所有帧进行加窗,shape = n_ftt * n_frames。librosa中window.shape = n_ftt * 1

fft_window = librosa.filters.get_window(window, Nx, fftbins=True) # 原函数及参数
fft_window = get_window('hann', win_length, fftbins=True)         # 窗长一般等于傅里叶变换维度,短则填充长则截断

librosa加的窗函数调用的scipy,如scipy.signal.windows.hann。python_speech_features加的窗函数调用的numpy,如numpy.hanning,汉宁窗公式为:

给原信号加窗的实现方式为相乘:

frames *= 0.5 - 0.5 * numpy.cos((2 * numpy.pi * n) / (frame_length - 1)) # 原信号乘以汉宁窗函数

4.STFT处理得到spectrum(频谱,实际是多帧的),shape = (n_ftt // 2 +1) * n_frames

fft = librosa.core.fft.get_fftlib()
stft_matrix = fft.rfft(fft_window * frames)

librosa和python_speech_features都是调用的numpy进行傅里叶变换,numpy.fft.rfft(frames,NFFT)。

5.取绝对值得到magnitude spectrum/spectrogram(声谱,包含时间维度,即多帧),shape = (n_ftt // 2 +1) * n_frames

magnitude_spectrum = numpy.abs(stft_matrix)    # 承接上一步的STFT
magnitude_spectrum = numpy.abs(librosa.core.spectrum.stft(wav, n_fft=n_fft, hop_length=hop_length,win_length=win_length, center=center,window=window, pad_mode=pad_mode))**power  # librosa封装的计算magnitude spectrum函数,power参数默认为1.0

6.取平方得到power spectrum/spectrogram(声谱,包含时间维度,即多帧),shape = (n_ftt // 2 +1) * n_frames

power_spectrum = numpy.square(magnitude_spectrum)  # 承接上一步的magnitude_spectrum
power_spectrum = numpy.abs(librosa.core.spectrum.stft(wav, n_fft=n_fft, hop_length=hop_length,win_length=win_length, center=center,window=window, pad_mode=pad_mode))**power  # librosa封装的计算power spectrum函数,power参数设置为2.0

7.构造梅尔滤波器组,shape = n_mels * (n_ftt // 2 +1)

mel_basis = librosa.filters.mel(sr, n_fft, n_mels=128, fmin=0.0, fmax=None, htk=False,norm=1, dtype=np.float32)     # 原函数及参数

librosa和python_speech_features构造mel_filtersbank的方式不同,librosa构造细节尚未掌握。

8.矩阵乘法得到mel_spectrogram,shape = n_mels * n_frames

mel_spectrogram = numpy.dot(mel_basis, power_spectrum)

[ n_mels ,(n_ftt // 2 +1) ] * [ (n_ftt // 2 +1) ,n_frames ] = [ n_mels,n_frames]

9.对mel_spectrogram进行log变换,shape = n_mels * n_frames

log_mel_spectrogram = librosa.core.spectrum.power_to_db(mel_spectrogram, ref=1.0, amin=1e-10, top_db=80.0)

S_db ~= 10 * log10(S) - 10 * log10(ref)

librosa采用以上方式计算log映射,python_speech_features定义mfcc( )函数时直接取自然常数e为底的对数。

10.IFFT变换,实际采用DCT得到MFCC,shape = n_mels * n_frames

mfcc = scipy.fftpack.dct(log_mel_spectrogram, type=2, n=None, axis=0, norm=None, overwrite_x=False)
# n表示计算维度,需与log_mel_spectrogram.shape[axis]相同,否则作填充或者截断处理。axis=0表示沿着自上而下的方向,分别选取每一行所在同一列的元素进行运算。

与python_speech_features相同,librosa也是调用scipy对log_mel_spectrogram进行离散余弦变换:scipy.fftpack.dct()。

11.取MFCC矩阵的低维(低频)部分,shape = n_mfcc * n_frames

mfcc = mfcc[ :n_mfcc]  # 取低频维度上的部分值输出,语音能量大多集中在低频域,数值一般取13。

二、python_speech_features

1.源语音信号,shape = wav.length

sample_rate,signal = scipy.io.wavfile.read(filename, mmap=False) # scipy加载语音文件
signal, sample_rate = librosa.load(path, sr=22050, mono=True, offset=0.0, duration=None,dtype=np.float32, res_type='kaiser_best')            # librosa加载语音文件

2.预加重,shape = wav.length

signal = numpy.append(signal[0],signal[1:] - coeff * signal[:-1])

语音信号的预加重,目的是为了对语音的高频部分进行加重,去除口唇辐射的影响,增加语音的高频部分的分辨率和信噪比,计算方式为:y(n))=x(n)-a*x(n-1),系数a一般取0.97。

3.分帧和加窗,shape = n_frames * n_ftt

frames = python_speech_features.sigproc.framesig(signal,frame_len,frame_step,winfunc=lambda x:numpy.ones((x,))) # 分帧及加窗函数

python_speech_features中默认帧长取25ms、帧移10ms,对应实际的采样点为:

帧长点数 = 帧长时间 * 采样率 ,帧移点数 = 帧移时间 * 采样率

numframes = 1 + int(math.ceil((1.0*slen - frame_len)/frame_step))  # 计算总分帧数

总分帧数量 = 1 + 向上取整( ( 原信号长度 - 帧长点数 ) / 帧移点数 )

padlen = int((numframes-1)*frame_step + frame_len)     # 计算待填充点的数量
zeros = numpy.zeros((padlen - slen,))                  # 在原数据末尾进行零填充

待填充点数 = ( 总分帧数量 - 1 ) * 帧移点数 + 帧长点数

这种填充方式和上面librosa的自定义的那种填充方式( y = numpy.pad(wav, (0,pad_need), mode='constant') )效果是一样的,可以看出librosa库的功能还是更加多样化的。

加窗的话,python_speech_features默认不加窗,但提供了调用numpy中窗函数的参数接口,经测试numpy.hanning窗函数和scipy.signal.windows.hann窗函数的数值是一致的,只不过前者为矩阵形式(元素相同的多个向量构成),后者为向量形式。

mfcc = python_speech_features.base.mfcc(signal,samplerate=16000,winlen=0.025,winstep=0.01,numcep=13,nfilt=26,nfft=512,lowfreq=0,highfreq=None,preemph=0.97,ceplifter=22,appendEnergy=True,winfunc=lambda x:numpy.ones((x,)))
# winfunc参数即为窗函数接口,例如 winfunc=numpy.hanning

4.STFT处理得到spectrum(频谱,实际是多帧的),shape = n_frames * (n_ftt // 2 +1)

complex_spec = numpy.fft.rfft(frames,n_fft)    # 离散傅里叶变换得到频谱图

和librosa一致,python_speech_features也是调用numpy下的函数做离散傅里叶变换。

5.取绝对值得到magnitude spectrum/spectrogram(声谱,包含时间维度,即多帧),shape = n_frames * (n_ftt // 2 +1)

mag_spec = numpy.absolute(complex_spec)       # 承接上一步取绝对值得到幅度谱

6.取平方得到power spectrum/spectrogram(声谱,包含时间维度,即多帧),shape = n_frames * (n_ftt // 2 +1)

power_spec = 1.0 / n_fft * numpy.square(mag_spec) # 承接上一步取平方得到功率谱

python_speech_features计算功率谱的方式和libraosa不一致,这里额外除以了傅里叶变换的维度n_fft。

7.构造梅尔滤波器组,shape = n_mels * (n_ftt // 2 +1)

fb = python_speech_features.base.get_filterbanks(nfilt=20,nfft=512,samplerate=16000,lowfreq=0,highfreq=None)

关于梅尔滤波器的构造细节,参考了这篇文章的部分介绍。具体细节如下:

赫兹转梅尔:mel = 2595 * log10( 1+ hz / 700. )

梅尔转赫兹:hz = 700 * ( 10** ( mel / 2595.0 ) - 1 )

(1)假设构造n_mels=10个梅尔滤波器,建立坐标系纵坐标表示mel刻度、横坐标表示Hz刻度

(2)横坐标(频率)设置最低值300hz、最高值8000hz(采样率的二分之一),对应的纵坐标的最低和最高值分别为401.97mel和2840.02mel。

(3)把纵坐标从低到高划分为12(10+2)个离散的点melpoints = [ 401.97, 623.61,845.25,1066.89,1288.54,1510.18, 1731.82,1953.46, 2175.10,2396.74,2618.38,2840.02] ,这些点映射回横坐标上分别为[ 300,517.34,781.91,1103.98,1496.06,
1973.34,2554.36,3261.65,4122.66,5170.80,6446.75, 8000. ]。

(4)上面横坐标这12(0-11)个点正好对应10个三角滤波器的三个点:例如0、1、2分别对应第一个滤波器的左底点、顶点、右底点,1、2、3对应第二个滤波器,以此类推第十个滤波器对应9、10、11。这十个三角滤波器的函数解析式如下:

(5)对信号的滤波处理本质上是乘法运算,由于待滤波的spectrogram实际是离散的数据,所以要对连续的滤波器函数进行离散的采样,从源代码来看python_speech_features和librosa的采样方式是不同的,经测试发现两者所构造的梅尔滤波器数据确实不一样。

(6)拿第一个滤波器举例来说,其横坐标的采样点选择是根据经傅里叶变换后的spectrogram维度确定的:

bin = numpy.floor( ( n_fft + 1 ) * mel2hz( melpoints ) / samplerate ) # 例子中n_fft取值512,samplerate取值16000
# 构造梅尔采样容器,实际上就是把原横坐标"samplerate/2"上的12个离散点映射到新横坐标"(n_ftt+1)/2"上面,这样做保证了后面的乘法运算维度一致。
# bin = [  9.  16.  25.  35.  47.  63.  81. 104. 132. 165. 206. 256.],例子中n_fft取值512

经过以上映射后,第一个滤波器的函数表达式就确定了:在[9,16)区间为y=(x-9)/(16-9),在[16,25]区间为y=(25-x)/(25-16),其余点y取值为0。在这个滤波器的257(0-256)个离散点中,沿着三角形左边y值逐渐递增,在顶点处达到最大值"1",然后顺着右边y值逐渐递减到0,其余部分点对应的纵坐标取值都为0。

(7)例子中(n_mel=10,n_fft=512,samplerate=16000)构造的梅尔滤波器矩阵具体数值如下(作了转置处理):

8.矩阵乘法得到mel_spectrogram,shape = n_frames * n_mels

mel_spectrogram = numpy.dot(power_spec,fb.T)

[ n_frames ,(n_ftt // 2 +1) ] * [ (n_ftt // 2 +1) ,n_mels ] = [ n_frames,n_mels]

mel_spectrogram矩阵中的每个元素其实就是每一帧spectrogram向量和每个滤波器向量的内积。mel_spectrogram(0,1)即为第1帧的spectrogram同第2个三角滤波器内积运算的结果。

9.对mel_spectrogram进行log变换,shape = n_frames * n_mels

log_mel_spectrogram = numpy.log(mel_spectrogram)
log_mel_spectrogram = python_speech_features.sigproc.logpowspec(frames,n_ftt,norm=1)

python_speech_features.base.mfcc( )函数默认取以自然常数e为底的对数,作者还提供了另一种取对数域的接口python_speech_features.sigproc.logpowspec( ),计算方式与librosa略有差异:log_S = 10 * log10(S)

10.IFFT变换,实际采用DCT得到MFCC,shape = n_frames * n_mels

mfcc = scipy.fftpack.dct(log_mel_spectrogram, type=2, n=None, axis=0, norm=None, overwrite_x=False)
# n表示计算维度,需与log_mel_spectrogram.shape[axis]相同,否则作填充或者截断处理。axis=0表示自上而下方向分别选取每一行所在同一列的元素进行计算。

11.取MFCC矩阵的低维(低频)部分,shape = n_frames * n_mfcc

mfcc = mfcc[:,:n_mfcc]  # 取低频维度上的部分值输出,语音能量大多集中在低频域,数值一般取13。

python_speech_features.base.mfcc(appendEnergy=True )函数中,appendEnergy参数控制是否把MFCC的第一个倒谱系数替换为每一帧总能量的对数,每一帧总能量的计算方式为:

energy = numpy.sum(power_spec,axis=1) # axis=1表示沿着从左到右的方向,分别选取每一列所在同一行的元素进行运算。

12.倒谱提升,shape = n_frames * n_mfcc

mfcc = python_speech_features.base.lifter(cepstra=mfcc, L=22)

倒谱提升系数默认设置为22,具体实现方式为:

nframes,ncoeff = numpy.shape(cepstra)              # ncoeff=n_mfcc
n = numpy.arange(ncoeff)                           # n=0,1,2...n_mfcc-1
lift = 1 + (L / 2.) * numpy.sin(numpy.pi * n / L)  # lift.shape = n_mfcc * 1
return lift * cepstra                              # shape = n_frames * n_mfcc

13.微分:mfcc的动态特征提取,shape = n_frames * n_mfcc

mfcc_delta_1 = python_speech_features.base.delta(feat=mfcc, N=1)  # 计算mfcc的一阶微分
mfcc_delta_2 = python_speech_features.base.delta(feat=mfcc, N=2)  # 计算mfcc的二阶微分

有时会把MFCC的基础特征同其一阶、二阶微分数据结合起来使用,以做到特征层面的动静结合。

librosa能量_语音MFCC提取:librosa amp;amp; python_speech_feature(2019.12)相关推荐

  1. python中numpy函数ftt_语音MFCC提取:librosa python_speech_feature(2019.12)

    最近在阅读语音方向的论文,其中有个被提及很多的语音信号特征MFCC(Mel-Frequency Cepstral Coefficients),找到了基于python的语音库librosa(versio ...

  2. librosa能量_librosa语音信号处理

    librosa是一个非常强大的python语音信号处理的第三方库,本文参考的是librosa的官方文档,本文主要总结了一些重要,对我来说非常常用的功能.学会librosa后再也不用用python去实现 ...

  3. librosa能量_librosa中mfcc函数的一点小问题

    (图摄于阿姆斯特丹梵高博物馆) 在重读<解析深度学习:语音识别实践>中,发现有段文字跟我预想的并不太一样: 在我的印象中,mfcc的维度应该和梅尔滤波器组数是一样的:stft-&a ...

  4. 基于短时能量的语音端点检测算法

    1 带噪语音信号 日常生活中噪声无处不在,说话声.风声.雨声.打字声.机器运行的声音等都可定义为噪声.噪声的种类也很多,每种都有其各自的特点,对有用信息的影响程度也不同.噪音主要包括稳定噪音和非稳定噪 ...

  5. matlab求基音频率,语音中提取基音频率matlab程序.doc

    语音中提取基音频率matlab程序 语音中提取基音频率matlab程序%%corr.m % correlation for pitch estimation% flag =1 from left to ...

  6. 关于在anaconda安装librosa以及其虚拟环境中安装librosa的问题

    总结: 1.librosa很难在命令行直接使用conda或pip安装: 2.直接使用安装包安装时,尽量使用最新的版本,可以避免numba和llvmlite等相关问题(numpy版本不匹配) 1.下载l ...

  7. 魔百盒九联UNT402A_S905L3_线刷固件包_语音蓝牙正常

    魔百盒九联UNT402A_S905L3_线刷固件包_语音蓝牙正常 固件特点: 1.适用于九联UNT402A: 2.开放原厂固件屏蔽的市场安装和u盘安装apk: 3.修改dns,三网通用: 4.大量精简 ...

  8. 通过librosa库进行语音特征的提取

    librosa官网 一. librosa的安装 pip3 install librosa ***注意:**librosa依赖很多其他东西,下载的时候需要开启代理,否则安装失败 二. 读取音频 说明: ...

  9. librosa能量_librosa与python_speech_features

    在语音识别领域,比较常用的两个模块就是librosa和python_speech_features了. 最近也是在做音乐方向的项目,借此做一下笔记,并记录一些两者的差别.下面是两模块的官方文档 Lib ...

最新文章

  1. Java查找数组重复元素,并打印重复元素、重复次数、重复元素位置
  2. 微软企业库5.0学习笔记(四)配置企业库
  3. 中职计算机基础课教学策略研究,中职计算机基础知识教学方法及教学策略研究.doc...
  4. SpringBoot系列: 与Spring Rest服务交互数据
  5. 常用Git命令和配置
  6. 洛谷1309 瑞士轮 解题报告
  7. 【Allwinner】---搭建 全志平台 开发环境 史上最详细
  8. 建模实训报告总结_建筑实训报告总结
  9. 认知之经济学:经济是如何运行的
  10. linux微软雅黑字体库_Ubuntu 安装 Wine 4.4 并设置微软雅黑字体解决中文乱码
  11. LED显示行业之知识大全3
  12. cesium获取当前屏幕中心点坐标
  13. 为什么说梯度的反方向是函数下降最快的方向
  14. 拼字游戏 html5,拼字游戏攻略
  15. Windows-驱动-解决Thinkpad e470c在Win8.1下WiFi无法连接的问题
  16. 机器学习(一)——什么是机器学习
  17. tensorflow的优势
  18. 程序员个性化简历模板项目
  19. 淘宝数据魔方技术架构解析读后感
  20. angular2 组件

热门文章

  1. 手工修复Azure DevOps无法连接到Azure的问题
  2. IdentityServer4实战 - JWT Token Issuer 详解
  3. .net core+Spring Cloud学习之路 一
  4. 日行千里,全凭“车”况,为什么我们要升级平台
  5. 【青岛】12月16日.NETCore与AI技术交流会-等你来哦!!
  6. 理想的互联网服务后台框架的九个要点
  7. Linux工程师新法宝:在Visual Studio上用C++ 写Linux
  8. PHP使用for循环打出星号表格,console - JavaScript中,使用for循环输出如下图形(等腰三角形,和平行四边形)?原理是啥?...
  9. 【经典回放】JavaScript学习详细干货笔记之(三)
  10. Android之让EditText不被键盘挡住