论文链接:SC-GlowTTS: an Efficient Zero-Shot Multi-Speaker Text-To-Speech Model

文章目录

  • 摘要
  • 简介
  • Speaker Conditional GlowTTS Model
  • 实验
    • Speaker Encoder
    • Zero-Shot Multi-Speaker Tacotron 2
    • 音频数据集
    • 实验设置
  • 结果与讨论
  • SC-GlowTTS在few-speakers场景中的性能
  • Zero-Shot声音转换
  • 结论与后续工作

摘要

本文提出了 SC-GlowTTS:一种有效的零样本多说话者文本到语音模型,可提高训练中未见说话者的相似度;提出了一种扬声器条件架构,探索了一种基于流的解码器,它可以在zeor-shot场景下工作。作为文本编码器,探索了基于膨胀残差卷积的编码器、基于门控卷积的编码器和基于Transformer的编码器。此外,已经证明,为训练数据集上的 TTS 模型预测的频谱图调整基于 GAN 的声码器可以显着提高新说话者的相似度和语音质量。提出的模型能够在训练中收敛,仅使用 11 个说话者,在与新说话者的相似性以及高语音质量方面达到最先进的结果。

简介

由于深度学习的巨大进步,文本到语音(TTS)系统近年来受到了很多关注,这使得虚拟助手等语音应用程序的普及成为可能。大多数 TTS 系统都是根据单个说话者的声音定制的,但目前人们对合成新说话者的声音很感兴趣,这在训练期间没有见过,只使用几秒钟的语音样本。这种方法称为零样本 TTS (ZS-TTS)。

ZS-TTS最初是通过扩展DeepVoice 3提出的。此外使用广义端到端损失 (GE2E)从经过训练的speaker编码器中提取的外部嵌入探索了Tacotron 2,从而产生了一个可以生成语音的模型,类似于目标speaker。类似地,Zero-Shot Multi-Speaker Text-To-Speech with State-Of-The-Art Neural Speaker Embeddings研究了使用不同扬声器嵌入方法的Tacotron 2。作者表明,与X-vector嵌入相比,LDE嵌入提高了新说话者的相似度,合成了更自然的语音;作者还表明,训练性别依赖模型可以提高看不见的说话者的相似性。

在这种情况下,一个主要问题是在模型训练中观察到的说话者和未观察到的说话者之间的相似度差距。为了缩小这一差距,Attentron提出了一种细粒度编码器,该编码器具有从各种参考样本中提取详细风格的注意机制,以及一种粗粒度编码器。由于使用了几个参考样本而不是一个,他们对看不见的说话者获得了更好的相似度。

尽管有了最近的研究结果,zero-shot TTS仍然是一个开放的问题,特别是关于可见和不可见speaker质量的差异。此外,目前的方法严重依赖于Tacotron 2,而使用基于流程的方法有可能改善结果。在这种情况下,FlowTron允许对语音的多个方面进行操作,如音调、音调、语速、抑扬顿挫和重音。此外,GlowTTS达到与Tacotron 2相似的质量,但速度提高了15.7倍,同时允许语音速度操作。(GlowTTS论文作者已发布了对应笔记,感兴趣的读者可点击链接进入浏览)

本文提出了一种新的方法——Speaker Conditional GlowTTS (SC-GlowTTS),用于对看不见的speaker进行zero-shot学习。提出的模型依赖于GlowTTS来实现将输入字符转换为谱图的部分。SC-GlowTTS使用一个基于Angular Prototypical loss的外部speaker编码器来学习speaker嵌入向量,并适应HiFi-GAN声编码器将输出的谱图转换为波形。这项工作中主要贡献有:

  • 一种新颖的zero-shot TTS方法,仅在训练集中使用11个扬声器就能达到最先进的效果
  • 一种在zero-shot TTS设置下实现高质量和更快的实时语音合成的架构
  • 针对训练数据集上TTS模型预测的谱图调整基于Gan的声码器,以显著提高新speaker的相似度和语音质量

每个实验的音频样本都可以在网站上找到。此外,为了再现性,该实现可在Coqui TTS中获得,所有实验的检查点可在Github repository中获得。

Speaker Conditional GlowTTS Model

SC-GlowTTS建立在GlowTTS的基础上,但包括一些新的修改。除了GlowTTS的基于Transformer的编码器网络,还探索了残差膨胀卷积网络门控卷积网络;当时应该是所知的第一次在这种情况下使用。卷积残差编码器基于SpeedySpeech: Efficient Neural Speech Synthesis,使用Mish代替ReLU激活函数。另一方面,门控卷积网络由9个卷积块组成,每个卷积块包括一个dropout层、一个一维卷积和一个层归一化在所有卷积层中使用核大小为5、膨胀率为1和192个通道。基于流的解码器使用与GlowTTS模型相同的体系结构和配置。 然而,为了将其转换为零镜头TTS模型,在所有12个解码器块的仿射耦合层中加入speaker嵌入使用FastSpeech的持续时间预测网络来预测字符持续时间。为了捕捉不同speaker的不同语音特征,将speaker嵌入到时长预测器的输入中。最后,使用HiFi-GAN作为声码器

在推理过程中,SC-GlowTTS模型如图1所示,其中(++)表示连接。在训练过程中,模型使用单调对齐搜索(MAS),其中解码器的目标是调整mel谱图和嵌入PZP_ZPZ先验分布的输入speaker的嵌入向量。MAS的目的是将先验分布PZP_ZPZ与编码器的输出对齐。在推理过程中,不使用 MAS,而是由文本编码器和持续时间预测器网络预测先验分布PZP_ZPZ和对齐。最后,从先验分布PZP_ZPZ中采样一个潜在变量ZZZ。使用反向解码器和speaker嵌入,通过基于流的解码器转换潜在变量ZZZ,并行合成梅尔谱图。

图1 SC-GlowTTS总体架构

为了简单起见,将带有Transformer、残差卷积和门控卷积的编码器的SC-GlowTTS模型分别命名为SC-GlowTTS-Trans、SC-GlowTTS-Res和SC-GlowTTS-Gated模型。

实验

Speaker Encoder

Speaker Encoder由3个LSTM层和一个线性输出层组成,类似于Generalized End-to-End Loss for Speaker Verification。LSTM层单元数768, 通过线性层映射至256。为了进行训练,使用了在16khz采样的音频,并使用快速傅立叶变换(FFT)在1024ms窗口提取梅尔谱图,跳跃长度为256和1024个FFT组件,从中只保留80个梅尔系数。使用不同于原始工作的 Angular Prototypical损失函数进行优化。优化器 RAdam在320k步中使用,每批使用 64 个扬声器,每个扬声器有10个样本,学习率为10−410^{−4}104

Zero-Shot Multi-Speaker Tacotron 2

将本文的方法与Tacotron 2进行比较;基于之前的一些工作,本文使用local sensitive attention,将speaker嵌入连接到注意力模块的输入,因为这对于与性别无关的Tacotron模型是足够的。为了缓解注意力模块中可能出现的问题,使用双解码器一致性(DDC),逐步训练和引导注意力。在Tacotron中,每次解码器迭代的输出帧数称为缩减率 ®。DDC的想法是结合两个具有不同缩减因子的解码器。一个解码器(粗略)使用较高的 R 值,而另一个解码器(精细)使用较小的 R 值。渐进式训练只是以较大的 R 开始训练,并在训练期间减小它。在实验中,将 R = 7 用于粗解码器,而对于精细解码器,使用渐进训练,从 R = 7 开始并按如下方式减小:R = 5 在步骤 10k; R = 3 在步骤 25k; R = 2 在步骤 70k。

音频数据集

Speaker Encoder使用LibriSpeech数据集、Common Voice的英文版、VCTK和VoxCeleb (v1和v2)数据集的所有分区进行训练,总共约有25k个speakers;忽略训练样本少于10个的speaker的数据。

本文的zero-shot TTS模型使用VCTK数据集进行训练,该数据集包含44小时的音频和109位speakers,采样频率为48KHz。每个speaker大约有400句话。为了消除长时间的沉默,进行了预处理。使用Webrtcvad工具包应用了语音活动检测(VAD)。将VCTK数据集分为:训练、验证(包含与训练集相同的演讲者)和测试。对于测试集,选择了11名不在验证集或训练集中的演讲者;根据Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis的建议,从每个口音中选择了1名代表,总共7名女性和4名男性(演讲者225、234、238、245、248、261、294、302、326、335和347)。对于HiFi-GAN声码器的初始训练,使用LibriTTS数据集的train-clean-100和train-clean-360分区。

实验设置

进行了四项训练实验:

  • 实验一:上文描述的Tacotron zeor-shot模型,训练210k步
  • 实验二:SC-GlowTTS-Trans 训练150k步
  • 实验三:SC-GlowTTS-Res 训练150k步
  • 实验四:SC-GlowTTS-Gated 训练150k步

在所有实验中,使用批次大小为128的RAdam,初始学习率为10−310^{-3}103,Noam的学习率schedule,warmup步为4000。此外,使用与前文相同的配置从Speaker Encoder中提取mel谱图,但采样率为22khz。使用VCTK数据集,并使用验证集为每个比较损失值的实验选择最佳检查点。

此外,在所有的实验中,都选择使用音素而不是文本作为输入。具体来说,使用Phonemizer工具,它支持多种语言。此外,在基于GlowTTS模型的输入句子的每个音素之间添加了一个空白标记,这是根据原始工作的建议。

由于其有效的速度/质量权衡,HiFi-GAN v2模型被用作声码器。作为起点,使用作者提供用LJ Speech数据集训练了500k步的模型。首先用LibriTTS数据集训练HiFi-GAN模型的75k步长。之后,使用VCTK数据集,使用训练和验证分区,调整模型以适应其他190k步骤。

HIFI-Gan作者证明了在单个扬声器场景中使用 TTS 模型的频谱图调整HiFi-GAN模型可以提高质量。然而,其对于以下几点是否能改善仍未可知:1)多speakers下的质量;2)zero-shot TTS场景下未见过的speaker的语音相似性。为了回答这个问题,本文的TTS模型综合了VCTK数据集的训练和验证分割中的每个句子;使教师强制保持预测的谱图帧和输入音素之间的对齐。对于SC-GlowTTS,使用MAS将解码器输出与编码器输出对齐。使用从每个模型提取的这些光谱图,对最初使用LibriTTS数据集训练的检查点进行了微调,再进行190k步,生成了微调后的HiFi-GAN (HiFi-GAN-FT)。

结果与讨论

本文采用平均意见评分(MOS)研究对合成语音质量进行评价。MOS评分通过严格的众包获得。为了MOS计算,每个音频从68个独特贡献者(35F/33M)中邀请了15个专业合作者(都来自专业的美国英语母语人群)。为了比较合成声音与原始speaker之间的相似度,计算了Speaker Encoder Cosine Similarity(SECS)。SECS包括计算从Speaker Encoder中提取的两个音频嵌入之间的余弦相似度。取值范围为-1 ~ 1,数值越大表示相似性越强。参考Attentron,使用reliblyzer包中的Speaker Encoder计算SECS;因此,可以与那些研究进行比较。因为Attentron]给出的SECS值与昂贵的MOS相似度测试(Sim-MOS)兼容,所以选择只给出SECS来比较实验中生成的语音相似度。

还通过计算CPU和GPU上的实时因子(RTF)来比较每个模型的运行时间。对于速度测试,使用了一台带有NVIDIA GeForce GTX Titan V GPU的机器,一个Intel ® Xeon ® CPU E5-2603 v4 @ 1.70GHz处理器,6个CPU核和15 Gb RAM。训练是在NVIDIA V100 GPU上进行的。此外,RTF的计算考虑了从输入音素到输出波形的完整合成运行。为 VCTK 测试集的 11 个说话者中的每一个合成 15 个不同的句子,共10 次,并计算平均值。

作为提取speaker嵌入的参考样本,使用 VCTK 的第五句(即,speakerID 005.txt),因为所有测试speaker都说出了它,并且因为它是一个长句子(20 个单词)。这样,在zero-shot TTS 模型中,所有speaker都由具有相同字数和语音内容的参考样本呈现。

对于MOS和SEC 的计算,从LibriTTS的 test-clean子集中随机抽取 55 个句子,只考虑超过 20 个单词的句子。为 1个测试说话者中的每一个随机选择5个句子,确保所有55个测试句子都被合成并且所有测试说话者都被考虑在内。作为Ground Truth,为 11 个测试扬声器(总共55个)中的每一个随机选择5个音频,只研究超过20个单词的音频。

另一方面,对于SECS的Ground Truth,将随机选择的55个音频(如上所述)与用于合成句子的参考音频(每个测试说话者的 VCTK 数据集的第五句)进行了比较。

表1显示了所有实验的CPU和GPU中的 RTF、具有 95% 置信区间的MOS和SECS。速度测试表明,CPU和GPU上最快的模型是SC-GlowTTS-Gated,其次是SC-GlowTTS-Res模型。SC-GlowTTS-Trans模型是SC-GlowTTS系列中最慢的,但仍然比Tacotron 2快得多。尽管如此,通过与HiFi-GAN 声码器的集成,所有模型在CPU和GPU中都是实时的。

表1 所有实验的实时因子、具有 95% 置信区间的 MOS 和说话人编码器余弦相似度

Ground Truth的SECS得分达到0.9222,因为它将用作参考的样本与同一说话者的其他真实语音样本进行了比较。该值旨在显示SECS的上限,即完美“复制”目标说话者声音的模型。

使用HiFi-GAN声码器(没有微调)进行合成的最佳SECS是通过SC-GlowTTS-Trans 模型(实验 2)获得的,其次是Tacotron 2(实验 1)。SC-GlowTTS-Res模型(实验 3)获得了第三好的SECS,仅优于SC-GlowTTS-Gated(实验 2)。使用HiFi-GAN-FT,SC-GlowTTS-Trans模型也获得了最好的SECS,其次是SC-GlowTTS-Res模型。 SC-GlowTTS-Gated模型达到了第三好的 SECS,仅优于 Tacotron 2模型。此外,发现从TTS模型中提取的频谱图中对HiFi-GAN声码器的微调显着提高了新speaker的SECS。Tacotron 2、SC-GlowTTS-Trans、SC-GlowTTS-Res 和 SC-GlowTTS-Gated模型的SECS分别从0.7589增加到0.7791、0.7641到0.8046、0.7440到0.7969 和 0.7432到0.7849。

最后,将实验结果与Attentron模型提出的结果进行比较。Attentron作者公布了 SECS 值,该值也是与本文使用一样的的speaker编码器计算得出的;尽管其仅使用 8 位speaker(4 位女性和 4 位男性)进行测试,而本文使用了 11 位说话者,但本文认为比较是公平的,并且没有未定义的选择标准。zero-shot模式下的Attentron模型的SECS仅为 0.731。而不使用一个参考样本,而是使用8个参考样本的模型,使用多个样本来合成语音,执行few-shot TTS,这种方法实现了0.788 的 ECS,略低于本文最好的SECS,0.8046。尽管fow-shot方法具有优势,但本文的模型仍然比Attentron实现了更高的SECS。

除了本文使用更多的speakers之外,在Attentron中,来自VCT 数据集的句子被合成,因为这个数据集有一些不同说话者所说的句子,这有助于模型,因为在训练期间可能已经看到了一些句子,而本文所有工作中用来计算指标的句子在训练期间没有出现。

对于MOS,ground truth语音达到4.12。带有HiFi-GAN-FT声码器的SC-GlowTTS-Gated模型最接近它,达到3.82的MOS。此外,在SECS中,HiFi-GAN-FT声码器提高了语音相似度,使用相同的声码器实现了最佳 MOS。对TTS模型提取的谱图进行HiFi-GAN声码器的调整后,所有模型Tacotron 2、SC-GlowTTS-Trans、SC-GlowTTS-Res 和 SC-GlowTTS-Gated对新speaker的MOS分别从3.57增加到3.74、3.65增加到3.78、3.45增加到3.70、3.55增加到3.82。本文的MOS值与其他最先进的ZS-TTS模型相当。

SC-GlowTTS在few-speakers场景中的性能

为了模拟speakers很少的场景,通过选择VCTK数据集训练集的一个子集来反映测试集。这个新训练集由11名speakers组成,7名女性和4名男性。为每个口音选择了一个代表,除了“新西兰”口音只有一个speakers,它在本文的测试集中,故增加了一个“美国”speaker,选择的speakers是229,249,293,313,301,374,304,316,251,297和323。从这个新的训练集中,选择了样本作为验证集。

使用SC-GlowTTS-Trans模型,并使用LJSpeech数据集进行290k步的训练。这种单speaker数据集的预训练被用于在更大的词汇表中启动模型编码器。在新的训练集中对SC-GlowTTS-Trans模型进行了优化,该训练集中只有11个扬声器,步数为70k,使用验证集,最终选择了最佳检查点作为步数66k。此外,使用在LibriTTS数据集中训练的75k步的HiFiGAN模型,使用相同的技术对其他95k步进行了调整。该新实验的SECS为0.7707,MOS为3.71±0.07。这些结果与Tacotron 2所获得的0.7791的SECS和3.74的MOS相兼容,后者使用了更大的98个speakers。因此,本文的SC-GlowTTS-Trans模型收敛的数据集比Tacotron 2小9.8倍,性能与Tacotron 2相当。相信这是向前迈出的重要一步,特别是对于低资源语言的ZS-TTS。

Zero-Shot声音转换

正如在原始的GlowTTS模型中一样,不向模型编码器提供任何关于说话人身份的信息,因此编码器预测的分布被迫独立于说话人身份。因此,像GlowTTS一样,SC-GlowTTS只能使用模型的解码器转换声音。然而,在本工作中,用外部speaker嵌入SC-GlowTTS。它使本文的模型通过执行zero-shot语音转换来类似于训练中没有看到的说话人的声音。zero-shot语音转换的示例出现在演示页面上。

结论与后续工作

本工作提出了一种新的方法,SC-Glow-TTS,实现了最先进的ZS-TTS结果。为SC-GlowTTS模型探索了3种不同的编码器,并表明基于Transformer的编码器为训练中未见过的说话者提供了最佳的相似性。SC-GlowTTS模型优于Tacotron 2。此外,当与外部扬声器编码器相结合时,SC-GlowTTS模型可以在训练集中仅使用11个扬声器时执行ZS-TTS。最后,本工作发现,调整训练和验证集中TTS模型预测的谱图中的HiFi-GAN声码,可以显著提高训练中未出现的说话人合成语音(MOS)的相似度和质量。

未来的工作可能会改进该模型,使其能够对诸如音调、语调、语速、抑扬顿挫和重音等语音方面进行操作。此外,Attentron表明,针对speaker表示的几个参考样本提高了训练中未见过的speaker的相似度,后续打算将SC-GlowTTS扩展为一种few-shot方法。

SC-GlowTTS论文阅读相关推荐

  1. Glow-TTS论文阅读

    论文链接:Glow-TTS: A Generative Flow for Text-to-Speech via Monotonic Alignment Search 文章目录 摘要 简介 相关工作 文 ...

  2. character-level OCR之Character Region Awareness for Text Detection(CRAFT) 论文阅读

    Character Region Awareness for Text Detection 论文阅读 论文地址(arXiv) ,pytorch版本代码地址 最近在看一些OCR的问题,CRAFT是在场景 ...

  3. 缺陷检测相关论文阅读总结(记录自己读过的论文主要内容/Ideas)

    缺陷检测相关论文阅读总结(记录自己读过的论文主要内容) Attention!!! 点击论文题目即可访问原文or下载原文PDF文件: 每篇文章的内容包含:内容总结.文章Ideas: 更多关于缺陷检测以及 ...

  4. 【论文阅读】Modeling the world from internet photo collections

    Modeling the world from internet photo collections论文阅读 1.摘要 2.介绍 3.先前技术(历史介绍) 4.重建过程 4.1 关键点的检测和匹配 4 ...

  5. 强化学习泛化性 综述论文阅读 A SURVEY OF GENERALISATION IN DEEP REINFORCEMENT LEARNING

    强化学习泛化性 综述论文阅读 摘要 一.介绍 二.相关工作:强化学习子领域的survey 三.强化学习中的泛化的形式 3.1 监督学习中泛化性 3.2 强化学习泛化性背景 3.3 上下文马尔可夫决策过 ...

  6. Learning Span-Level Interactions for Aspect Sentiment Triplet Extraction 论文阅读 ACL2021

    目录 摘要 针对问题: 解决方法: 2 Span-based ASTE 2.1 Task Formulation 2.2 Model Architecture 2.2.1 Sentence Encod ...

  7. 论文阅读笔记——基于CNN-GAP可解释性模型的软件源码漏洞检测方法

    本论文相关内容 论文下载地址--Engineering Village 论文阅读笔记--基于CNN-GAP可解释性模型的软件源码漏洞检测方法 文章目录 本论文相关内容 前言 基于CNN-GAP可解释性 ...

  8. 论文阅读工具ReadPaper

    对于搞科研的同学们来说,看论文是要经历的第一关,尤其是要读好多篇论文的时候,更是着实令人头大. 这不,最近无意中发现了个在线论文阅读网站:readpaper.com,号称「论文阅读笔记神器,硕博科研学 ...

  9. 多目标跟踪:CVPR2019论文阅读

    多目标跟踪:CVPR2019论文阅读 Robust Multi-Modality Multi-Object Tracking 论文链接:https://arxiv.org/abs/1909.03850 ...

  10. 快速人体姿态估计:CVPR2019论文阅读

    快速人体姿态估计:CVPR2019论文阅读 Fast Human Pose Estimation 论文链接: http://openaccess.thecvf.com/content_CVPR_201 ...

最新文章

  1. R语言Goldfeld-Quandt检验实战:检验回归模型中是否存在异方差性(heteroscedasticity)、发生了异常差(heteroscedasticity)问题如何解决
  2. 通过WebAssembly在浏览器运行PHP
  3. 基于oracle设计与实现,基于Oracle的高校研究生招生系统设计与实现.doc
  4. 【2018.3.31】模拟赛之四-ssl2408 句子【dp,字符串】
  5. 计算机网络拓扑结构说课稿,计算机网络应用基础说课稿修稿稿
  6. CentOS 7.5基于Docker部署4.2 版本的zabbix监控平台
  7. 【图像几何】基于matlab GUI插值图像运算【含Matlab源码 850期】
  8. 价值1000元的微信二维码活码管理系统网站源码分享
  9. vue项目的停止_Terminal怎么停止VUE项目
  10. Fiddler抓包(Android app)
  11. python关于二手房的课程论文_python爬取链家二手房信息
  12. android倒计时动画特效,Android实现答题倒计时效果
  13. 普通话读音 - 平舌音 / 前舌音 / 舌尖前音 - 翘舌音 / 卷舌音 / 舌尖后音
  14. Matlab人工智能算法
  15. OMIM使用简要说明
  16. CLA与CPU数据交互
  17. ffmpeg 无损 剪切 分割 视频
  18. 【视觉AI训练营day2】身份证识别web应用
  19. cmstop在列表页或者文章页调用自动摘要的办法
  20. 每一个感动都值得流泪 转帖

热门文章

  1. 智方8000系房地产进销存管理系统 v4.30 官网
  2. 单片机音频谱曲软件_基于51单片机音乐播放仿真 乐谱制作软件 音乐资料
  3. 卡尔曼滤波算法 C语言实现
  4. freeradius+ldap搭建认证服务器
  5. kali linux 网络配置
  6. 戴尔计算机更新程序,戴尔电脑怎么关闭自动更新系统
  7. mysql jemalloc_Jemalloc优化MySQL和Nginx
  8. 火狐浏览器去除广告插件
  9. 捷速pdf修改器如何在pdf中添加附件
  10. 金山毒霸捆绑安装软件被起诉,辩称属于行业惯例