文章目录

  • 0. 摘要
  • 1. Introduction
  • 2. Problem Formulation
    • 2.1 Mixture model
    • 2.2 Speech model
    • 2.3 Noise model
    • 2.4 Clean speech inference
  • 3. Noise-Aware VAE
  • 4. 实验验证
  • 5. Result and Discussions
    • 5.1 Performance evaluation
    • 5.2 Analysis of the amount of training data

0. 摘要

最近,已经提出了一种生成变分自动编码器 (variational autoencoder, VAE) 用于语音增强以对语音统计进行建模。然而,这种方法只在训练阶段使用干净的语音,使得估计对噪声的存在特别敏感,尤其是在低信噪比 (SNR) 的情况下。为了提高 VAE 的鲁棒性,本文建议在训练阶段加入噪声信息,该策略可通过使用(noisy-clean pairs)训练的noise-aware encoder实现。本文使用两个不同的噪声数据集评估我们对不同噪声环境和声学条件的真实记录的方法。实验表明,本文提出的噪声感知 VAE 在整体失真方面优于标准 VAE,而不会增加模型参数的数量。同时,我们证明了我们的模型能够比有监督前馈深度神经网络 (DNN) 更好地泛化到看不见的噪声条件。此外,我们展示了模型性能对减少训练数据规模方面的鲁棒性。

1. Introduction

语音增强通常需要对噪声和语音的功率谱密度(PSD)进行统计估计,非负矩阵分解(Non-negative matrix factorization, NMF)是PSD估计的常用方法。然而,在对复杂的高维数据建模时,线性假设条件限制了NMF方法的性能。 相比之下,基于非线性深度神经网络(DNN)的语音增强表现出更好的建模能力。 常见的方法侧重于以监督方式推断时频掩码 [7]。 然而,为了推广到看不见的噪声条件,DNN需要引入大量的数据进行训练。

生成变分自编码器(generative VAE)是一种概率模型,广泛用于学习概率分布的潜在表示。VAE具有与经典自编码器类似的结构,为encoder和decoder架构,但是VAE的潜在空间不同,其需要经过正则化处理,以满足标准高斯分布。此外,VAE方法已应用于单通道和多通道语音增强场景中[14-16]。这些方法仅对纯净语音频谱进行训练,以此来对语音统计进行建模。然而,由于在训练阶段缺少噪声信息,标准VAE的encoder对噪声很敏感,在低信噪比情况下,这种噪声敏感性会导致对潜在变量的错误估计,从而导致不恰当地生成语音系数并降低性能。

[14] Y. Bando, M. Mimura, K. Itoyama, K. Yoshii, and T. Kawahara, “Statistical speech enhancement based on probabilistic integration of variational autoencoder and non-negative matrix factorization,” in IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2018, pp. 716–720.
[15] S. Leglaive, L. Girin, and R. Horaud, “A variance modeling framework based on variational autoencoders for speech enhancement,” in International Workshop on Machine Learning for Signal Processing (MLSP), 2018, pp. 1–6.
[16] S. Leglaive, L. Girin, and R. Horaud, “Semi-supervised multichannel speech enhancement with variational autoencoders and non-negative matrix factorization,” in IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), May 2019, pp. 101–105.

受conditional VAE 及其在图像分割应用中的启发,为了提高噪声鲁棒性,本文提出用噪声感知编码器替换 VAE 的编码器。首先使用干净语音频谱训练VAE,之后使用带噪语音进行训练,以有监督的方式进行训练,使得潜在空间表示尽可能接近仅使用纯净语音训练的encoder。本文方法以VAE-NMF的语音增强框架为基础,该模型框架中,NMF用于对噪声的PSD进行建模。实验结果表明,本文方法对噪声存在更加鲁棒,并且在不增加模型参数数量的情况下改进了语音估计。 该方法还通过评估来自不同噪声数据集的真实记录,显示出对看不见的噪声条件的鲁棒性。 最后,本文说明使用少量noisy-clean的语音数据可以改善整体失真。

2. Problem Formulation

2.1 Mixture model

本文考虑加性噪声模型,在STFT变换域表示为:

假设语音和噪声谱是具有零均值的相互独立的复高斯分布。表示为

信号的 功率谱密度(PSD)由局部平稳假设下的参数方差表征。

此外,为了增加对音频话语响度的鲁棒性,引入了与时间和频率无关的增益 gt。因此,(1)中的加性混合模型可修改为

带噪语音服从复高斯分布,可表示为:

2.2 Speech model

对于基于 VAE 的语音模型,定义了逐帧的 D 维潜在变量 z t ∈ R D z_t \in R^D zt​∈RD,并假设从条件似然分布 p θ ( s t ∣ z t ) p_{\theta}(s_t|z_t) pθ​(st​∣zt​)中采样 F 维语音帧 s t s_t st​。这项工作可通过VAE的decoder实现,也称为生成模型。变量 θ \theta θ表示decoder网络的参数, σ ^ s 2 \hat{\sigma}^2_s σ^s2​表示非线性函数。

VAE方法遵循贝叶斯框架,联合学习潜在变量和推理模型,需要逼近难以处理的真实后验分布 p ( z t ∣ s t ) p(z_t|s_t) p(zt​∣st​)。在VAE中,encoder又称为推理模型,用于近似真实后验分布,表示为 q ϕ ( z t ∣ s t ) q_{\phi}(z_t|s_t) qϕ​(zt​∣st​)。在随机梯度下降下,生成模型的参数 θ 和推理模型的参数 φ 通过最大化变分下限联合优化,由下式给出

p ( z t ) p(z_t) p(zt​)表示D维变量 z t z_t zt​的先验分布,KL 表示 Kullback-Leibler 散度。潜在变量的先验定义为一个零均值各向同性多元高斯 zt∼N(0, I),目标函数(3)中的第一项是指潜在空间中的正则化误差,以确保有意义的潜在变量,第二项是重建误差。

2.3 Noise model

NMF 试图通过包含由系数矩阵加权的基函数的字典矩阵来找到输入矩阵的最佳近似值。本文利用NMF对噪声方差进行建模,噪声方差通过字典矩阵 W ∈ R F × K W \in R^{F \times K} W∈RF×K和系数矩阵 H ∈ R K × T H \in R^{K \times T} H∈RK×T相乘的结果进行近似:

K表示噪声模型的秩,用k索引。 w f k 和 h k t w_{fk}和h_{kt} wfk​和hkt​分别表示W和H的元素。

2.4 Clean speech inference

通过使用VAE和NMF分别对语音和噪声进行建模,带噪语音的分布可以表示为:

其中 σ ^ s , f 2 \hat{\sigma}^2_{s, f} σ^s,f2​表示对第f个频点的非线性函数 σ ^ s 2 \hat{\sigma}^2_s σ^s2​。给定噪声混合作为观察值,蒙特卡洛期望最大化 (MCEM) 算法用于估计 NMF 参数和增益因子,采样策略基于Metropolis-Hastings算法。通过构造维纳滤波 m ^ f t \hat{m}_{ft} m^ft​,可以从带噪语音中提取出纯净信号。

3. Noise-Aware VAE

本文提出一种噪声感知编码器,可以提高编码器对噪声存在的鲁棒性。对于生成过程,很难甚至不可能推导出潜在变量和目标之间的最佳映射。 然而,我们认为,使从噪声混合估计的潜在变量尽可能接近从相应的纯净语音中推断出的潜在变量可能是相关的。

本文提出了两步学习方法,学习从带噪信号到潜在变量之间的非线性映射,该潜在变量表示了纯净语音的统计。本文首先利用公式三训练VAE,从而学习干净语音信号上的正则化潜在表示。然后,noise-aware encoder用于在带噪混合语音 x t x_t xt​的条件下,逼近D维潜在变量 z t ′ ∈ R D z'_t \in R^D zt′​∈RD输出的概率 q γ ( z t ′ ∣ x t ) q_{\gamma}(z'_t|x_t) qγ​(zt′​∣xt​),还假设条件概率 q γ q_{\gamma} qγ​服从标准高斯分布。变量 γ \gamma γ表示encoder的参数。最后,从带噪语音得到的 z t ′ z'_t zt′​到相应的纯净语音推断得到的潜在变量 z t z_t zt​的距离基于Kullback-Leibler散度最小化,如图2(a)所示,对应公式如下:

μ ~ d 和 σ ~ d 2 \tilde{\mu}_d和\tilde{\sigma}_d^2 μ~​d​和σ~d2​表示神经网络对变量 z t ′ z'_t zt′​后验高斯分布的均值和方差的非线性映射。通过使用随机梯度下降算法最小化成本函数来优化新推理模型 γ 的参数。 通过这种方式,我们结合了 VAE 对语音特征的无监督学习和使用噪声-干净语音信号对的监督学习。

如图 2 (b) 所示,通过在潜在空间中引入这个成本函数,从噪声混合 xt 估计的潜在变量 zt 被拉向从相应的干净语音 st 估计的 zt。 这里的虚线表示从信号空间到潜在空间的非线性映射,不同的颜色表示两个映射对。 在推理阶段,噪声感知推理模型用于替代标准的基于语音的编码器,VAE 的解码器保持不变。

4. 实验验证

语音数据 WSJ0
噪声数据集:QUT-NOISE 和 DEMAND。其中QUT-NOISE用于构造训练集合测试集,DEMAND用于构造unseen验证集。

信号采样率为16kHz, STFT变换时使用窗长1024,hop_length为25%。由于 Kullback-Leibler 散度与尺度相关,因此采用全局归一化为零均值和单位标准差来训练噪声感知编码器。NMF的秩选择K=8,W和H随机初始化。MCEM方法的参数设置与[15]相同。

VAE的encoder和decoder包含两个128单元的前馈隐藏层,隐藏层使用双曲正切激活函数,潜在空间L的维度设置为16。

评价指标为SI-SDR。

5. Result and Discussions

5.1 Performance evaluation


5.2 Analysis of the amount of training data

VARIATIONAL AUTOENCODER FOR SPEECH ENHANCEMENT WITH A NOISE-AWARE ENCODER相关推荐

  1. Single Channel Speech Enhancement Using Temporal Convolutional Recurrent Neural Networks

    Single Channel Speech Enhancement Using Temporal Convolutional Recurrent Neural Networks 标题:基于时域卷积递归 ...

  2. SEGAN: Speech Enhancement Generative Adversarial Network

    论文原文地址, 目录 摘要 一.引言 二.Generative Adversarial Networks 三.Speech Enhancement GAN 四.实验步骤 4.1 数据集 4.2 SEG ...

  3. 论文翻译:2022_PACDNN: A phase-aware composite deep neural network for speech enhancement

    论文地址:PACDNN:一种用于语音增强的相位感知复合深度神经网络 相似代码:https://github.com/phpstorm1/SE-FCN 引用格式:Hasannezhad M,Yu H,Z ...

  4. 论文翻译:2021_Low-Delay Speech Enhancement Using Perceptually Motivated Target and Loss

    论文地址:使用感知动机目标和损失的低延迟语音增强 引用格式:Zhang X, Ren X, Zheng X, et al. Low-Delay Speech Enhancement Using Per ...

  5. 论文翻译:2021_DeepFilterNet: A Low Complexity Speech Enhancement Framework for Full-Band Audio based on

    Python微信订餐小程序课程视频 https://edu.csdn.net/course/detail/36074 Python实战量化交易理财系统 https://edu.csdn.net/cou ...

  6. 论文翻译:2020_RNNoise:A Hybrid DSP/Deep Learning Approach to Real-Time Full-Band Speech Enhancement...

    网上已经有很多人翻译了,但我做这工作只是想让自己印象更深刻 文章方向:语音增强 论文地址:基于DSP/深度学习的实时全频带语音增强方法 博客地址:https://www.cnblogs.com/LXP ...

  7. 论文翻译:2021_语音增强模型压缩_Towards model compression for deep learning based speech enhancement...

    论文地址:面向基于深度学习的语音增强模型压缩 论文代码:没开源,鼓励大家去向作者要呀,作者是中国人,在语音增强领域 深耕多年 引用格式:Tan K, Wang D L. Towards model c ...

  8. 【DL笔记】Tutorial on Variational AutoEncoder——中英文对照(更新中)

    更新时间:2018-09-25 Abstract In just three years, Variational Autoencoders (VAEs) have emerged as one of ...

  9. 论文翻译:2020_DCCRN: Deep Complex Convolution Recurrent Network for Phase-Aware Speech Enhancement...

    论文地址:DCCRN:用于相位感知语音增强的深度复杂卷积循环网络 论文代码:https://paperswithcode.com/paper/dccrn-deep-complex-convolutio ...

最新文章

  1. 亚马逊echo中国使用_如何使用亚马逊的主要照片备份所有照片
  2. linux echo输出结果赋值给变量,shell变量n位补零
  3. [网络收集]LINUX磁盘挂载mount和共享
  4. js声明数组的四种方式
  5. Eclipse切换IDE界面语言
  6. Java开发求职总结
  7. 〖免杀〗.net程序一键免杀Win10 20H2 Defender
  8. 三农数据(1996-2020)八:农林牧渔业总产值、增加值构成及增加值率、中间消耗
  9. 关于RJ45 网线接线问题
  10. linux 常用软件推荐
  11. RAID卡 设置详解(LSI)
  12. 泛微Ecology8.0移动端模板必填字段JS代码
  13. 雅虎十四条:网站前端网页优化的14条原则
  14. java中画图喷枪_JAVA 画图板实现(基本画图功能+界面UI)一、界面实现
  15. java JVM调优总结 -Xms -Xmx -Xmn -Xss
  16. matlab:人脸识别
  17. 手撸Spring系列8:Spring AOP(理论篇)
  18. window10/11 更改AHCI模式启动蓝屏解决办法
  19. 用C语言实现汉诺塔的移动过程并且统计移动的次数
  20. 罗斯蒙特变送器技能应受器重

热门文章

  1. XML操作类(Seaskyer)
  2. 2019年10月8日股市走势预测
  3. 趣图:网络延迟的危害...
  4. BUUCTF:世上无难事
  5. python电商评论情感分析_电商产品评论数据情感分析
  6. HANA 与 Oracle 12c哪一个更快
  7. 【回馈粉丝】小米平板电脑免费送!!!
  8. Coding git@e.coding.net: Permission denied (publickey)
  9. VBA基础知识整理(文件操作)
  10. Linux执行yum不显示时间图形,Linux命令yum