找不到中文语音预训练模型?中文版 Wav2vec 2.0和HuBERT来了,腾讯游戏知几AI团队和西工大ASLP组联合出品

2022-06-07 05:41:05   来源:商业新知网

转自 | 机器之心

作者|腾讯游戏知几AI团队,西北工业大学音频、语音与语言处理研究组(ASLP@NPU)

【导读】 近日,腾讯游戏知几AI团队与西工大ASLP组联合发布了基于 WenetSpeech 1 万小时数据训练的中文版 Wav2vec 2.0 和 HuBERT 模型。

Wav2vec 2.0 [1],HuBERT [2] 和 WavLM [3] 等语音预训练模型,通过在多达上万小时的无标注语音数据(如 Libri-light )上的自监督学习,显著提升了自动语音识别(Automatic Speech Recognition, ASR),语音合成(Text-to-speech, TTS)和语音转换(Voice Conversation,VC)等语音下游任务的性能。然而这些模型都没有公开的中文版本,不便于应用在中文语音研究场景。

WenetSpeech [4] 是由西工大音频、语音和语言处理研究组 (ASLP@NPU)、出门问问、希尔贝壳联合发布的 1 万多小时多领域语音数据集。 为了弥补中文语音预训练模型的空缺,我们开源了基于 WenetSpeech 1 万小时数据训练的中文版 Wav2vec 2.0 和 HuBERT 模型。

为了验证预训练模型的性能,我们在 ASR 任务进行了验证。实验结果表明,在 100 小时有监督数据 ASR 任务上,预训练模型学到的语音表征相对于传统声学 FBank 特征有显著的性能提升,甚至仅用 100 小时有监督数据能够得到和 1000 小时有监督数据可比的结果。

模型链接:https://github.com/TencentGameMate/chinese_speech_pretrain

模型介绍

Wav2vec 2.0 模型

图 1: Wav2vec 2.0 模型结构 (Baevski et al., 2020)

Wav2vec 2.0 [1] 是 Meta 在 2020 年发表的无监督语音预训练模型。它的核心思想是通过向量量化(Vector Quantization,VQ)构造自建监督训练目标,对输入做大量掩码后利用对比学习损失函数进行训练。模型结构如上图 1,基于卷积网络(Convoluational Neural Network,CNN)的特征提取器将原始音频编码为帧特征序列,通过 VQ 模块把每帧特征转变为离散特征 Q,并作为自监督目标。同时,帧特征序列做掩码操作后进入 Transformer [5] 模型得到上下文表示 C。最后通过对比学习损失函数,拉近掩码位置的上下文表示与对应的离散特征 q 的距离,即正样本对。

原论文中,Wav2vec 2.0 BASE 模型采用 12 层的 Transformer 结构,用 1000 小时的 LibriSpeech 数据进行训练,LARGE 模型则采用 24 层 Transformer 结构,用 6 万小时的 Libri-light 数据训练。训练时间方面,BASE 模型使用 64 块 V100 显卡训练 1.6 天,LARGE 使用 128 块 V100 显卡训练 5 天。 在下游 ASR 评测中,即使只用 10 分钟的有监督数据,系统仍可得到 4.8 的词错误率(Word Error Rate, WER)结果。

HuBERT 模型

图 2: HuBERT 模型结构 (Hsu et al., 2021)

HuBERT [2] 是 Meta 在 2021 年发表的模型,模型结构类似 Wav2vec 2.0,不同的是训练方法。Wav2vec 2.0 是在训练时将语音特征离散化作为自监督目标,而 HuBERT 则通过在 MFCC 特征或 HuBERT 特征上做 K-means 聚类,得到训练目标。HuBERT 模型采用迭代训练的方式,BASE 模型第一次迭代在 MFCC 特征上做聚类,第二次迭代在第一次迭代得到的 HuBERT 模型的中间层特征上做聚类,LARGE 和 XLARGE 模型则用 BASE 模型的第二次迭代模型提取特征做聚类。从原始论文实验结果来看,HuBERT 模型效果要优于 Wav2vec 2.0,特别是下游任务有监督训练数据极少的情况,如 1 小时、10 分钟。

中文预训练模型

实验配置

我们使用 WenetSpeech [4] train_l 集的 1 万小时中文数据作为无监督预训练数据。数据主要来源于 YouTube 和 Podcast,覆盖了各种类型录制场景、背景噪声、说话方式等,其领域主要包括有声书、解说、纪录片、电视剧、访谈、新闻、朗读、演讲、综艺和其他等 10 大场景。我们基于 Fairseq 工具包 [6] 分别训练了 Wav2vec 2.0 和 HuBERT 模型,遵循 [1,2] 的模型配置,每个预训练模型模型包括 BASE 和 LARGE 两种大小。对于 BASE 模型,我们使用 8 张 A100 显卡,梯度累计为 8,模拟 64 张显卡进行训练。对于 LARGE 模型,我们使用 16 张 A100 显卡,梯度累计为 8,模拟 128 张显卡进行训练。

下游语音识别任务验证

为了验证预训练模型在下游 ASR 任务的效果,我们遵循 ESPnet [7,8,9] 工具包中的 Conformer [10] 模型实验配置,即将预训练模型作为特征提取器,对于输入语音提取预训练模型各隐层表征进行加权求和,得到的语音表征将替换传统 FBank 特征作为 Conformer ASR 模型的输入。

Aishell 数据集

我们使用 Aishell 178 小时训练集作为有监督数据进行训练,分别对比了使用 FBank 特征、Wav2vec 2.0 BASE/LARGE 模型特征和 HuBERT BASE/LARGE 模型特征的字错误率 (Character Error Rate, CER) 结果。同时,我们额外对比了使用 WenetSpeech train_l 集 1 万小时中文数据进行训练时,其在 Aishell 测试集上的效果。训练数据使用了变速(0.9、1.0、1.1 倍)和 SpecAugment 数据增广技术,解码方式为 beam search,使用了基于 Transformer 的语言模型进行 rescoring。

表 1:不同模型在 Aishell 测试集上的字错误率(CER%)结果

根据表 1 结果可以看到,通过结合上万小时无监督数据训练的预训练模型,下游 ASR 任务效果均有显著提升。尤其是使用 HuBERT LARGE 模型时,在 Test 集上得到约 30% 的 CER 相对提升,实现了目前在 178h 有监督训练数据下业界最好结果。

WenetSpeech 数据集

我们使用 WenetSpeech train_s 集 100 小时中文数据作为有监督数据进行训练,分别对比了使用 FBank 特征、Wav2vec 2.0 BASE/LARGE 模型特征和 HuBERT BASE/LARGE 模型特征的字错误率 (Character Error Rate, CER) 结果。同时,我们额外对比了使用 WenetSpeech train_m 集 1000 小时和 train_l 集 1 万小时中文数据 FBank 特征训练的模型结果。训练数据没有使用变速或 SpecAugment 数据增广技术,解码方式为 beam search,没有使用语言模型 rescoring。

表 2:不同模型在 WenetSpeech 测试集上的字错误率(CER%)结果

根据表 2 结果可以看到,通过结合上万小时无监督数据训练的预训练模型,下游 ASR 结果得到了巨大提升。尤其当使用 HuBERT LARGE 作为语音表征提取器时,使用 100 小时有监督数据训练的 ASR 模型要比 1000 小时基于 FBank 特征训练的模型效果要好,甚至接近 1 万小时数据训练的模型。

更多语音下游任务实验结果请关注 GitHub 链接(https://github.com/TencentGameMate/chinese_speech_pretrain)。欢迎大家使用我们提供的中文语音预训练模型开展研究工作,一起探索语音预训练模型在中文和相关众多场景下的应用。

关键词: 模型结构 实验结果

上一篇:
下一篇:
精彩阅读

PTC数字化转型顾问高谊:数字孪生概念的物联网实践

热点

数字孪生正在迅速地被证明是数字化转型的关键战略加速器,可以释放工业互联网和增强现实所创造的数据价值。

阿里云研究院院长肖利华:数智化敏捷组织——重构升级与进化

热点

智能决策,包括智能化业务决策、业务流程智能优化、组织结构动态调整等。

验收!用友BIP助力中能汽轮破解“边设计边生产”难题

热点

近日,杭州中能汽轮动力有限公司(以下简称中能汽轮)数智化项目验收会成功举行。

谁在押注Web3?

热点

涌入的参与者,都在赌一个美好的明天,他们现在不怕泡沫,而是怕自己入场慢了。

硬核阅读|XR时代需要什么样的操作系统?

热点

而在Android本身基于2D触控屏幕设计,从系统侧看来,一个应用就是一个全屏的框,只能通过框内的点击、滑动进行交互。

九乐观点|整体系统地认识网络安全与发展

热点

整体系统地认识网络安全与发展。

沃音乐副总经理庞文刚:5G AI影像助力垂直行业数字化转型

热点

5GAI未来影像让各行各业在数字化转型上更加便利快捷,走向更加光明美好的的道路。

大厂“被迫”造字简史

热点

字体行业的“视觉中国”难题愈演愈烈。

空间资源和时间资源

热点

有的技术,最多只解决“星球”面积的问题,并不能解决有多少星球的问题。

财富

一夜跌去740亿美元 特斯拉裁员警报拉响

资讯

在不少美国企业开始卷入裁员潮后,特斯拉也拉响了史上最大裁员的警报。未雨绸缪,CEO马斯克警告说,特斯拉一定要关注成本和现金流,未来的

英特尔将投资4亿欧元打造zettascale超级计算中心

资讯

据 Tom& 39;s Hardware 报道,本周,英特尔和巴塞罗那超级计算中心(BSC)表示,他们将投资 4 亿欧元(约 28 56 亿元人民币)建立一个实

因芯片短缺,标致雪铁龙与菲亚特克莱斯勒合并完成

资讯

据国外媒体报道,芯片短缺问题影响了由菲亚特克莱斯勒(FCA)和标致雪铁龙集团(PSA)合并而成的汽车制造商Stellantis的汽车产量。外媒报道称,

印度社交媒体公司获近3亿美元融资估值高达50亿美元

资讯

据国外媒体报道,消息人士透露,印度社交媒体公司ShareChat的母公司Mohalla Tech已经在一轮新的融资中筹集到了近3亿美元的资金,公司估值

微软开发“恢复应用程序”新功能:点击一下就恢复已被删除的程序

资讯

对于很多用户来说,想要恢复误操作删除的软件都是一件有些麻烦的事情,即便是在微软商店的软件,想要重新下载也需要在库中进行翻找。但目前

麻省理工学院新研究:用AI控制自主车辆的速度

资讯

没有人喜欢在红灯前等待。但有信号灯的十字路口对司机来说不仅仅是个小麻烦,并且车辆在等待信号灯变化时会存在浪费燃料以及排放温室气体的

可转债下修转股价是特大利好 如今却喜忧参半?

资讯

多只可转债迎下修转股价,本应的利好在如今却喜忧参半,因原本投机炒作很高的可转债却离强制赎回又近了很多。按道理来说,上市公司下修转股

国轩高科宣布三元半固态电池装车应用

资讯

日前国内的动力电池公司国轩高科宣布三元半固态电池已经装车应用,电池包容量可达160KWh,能量密度260Wh kg,电动车将实现1000公里续航,百

台积电在美面临巨大挑战 斥资120亿美元扩建芯片工厂

资讯

《日经亚洲评论》报道称,台积电正在美国亚利桑那州新建一座价值 120 亿美元的芯片制造工厂,但当前进展似乎不太顺利。按照现有规划,这

“套购”模式受消费者青睐 苏宁易购打造618套系家电首选平台

资讯

国内消费市场已进入618年中购物季,套购成为了今年618家电行业的消费主题,包括家电零售企业、电商平台、家居卖场、厂商自有渠道等都在打造

PTC数字化转型顾问高谊:数字孪生概念的物联网实践

数字孪生正在迅速地被证明是数字化转型的关键战略加速器,可以释放工业互联网和增强现实所创造的数据价值。

阿里云研究院院长肖利华:数智化敏捷组织——重构升级与进化

智能决策,包括智能化业务决策、业务流程智能优化、组织结构动态调整等。

验收!用友BIP助力中能汽轮破解“边设计边生产”难题

近日,杭州中能汽轮动力有限公司(以下简称中能汽轮)数智化项目验收会成功举行。

谁在押注Web3?

涌入的参与者,都在赌一个美好的明天,他们现在不怕泡沫,而是怕自己入场慢了。

硬核阅读|XR时代需要什么样的操作系统?

而在Android本身基于2D触控屏幕设计,从系统侧看来,一个应用就是一个全屏的框,只能通过框内的点击、滑动进行交互。

华盛顿地铁站首次亮相为视障人士扩展旅行路线

5月25日消息,一款旨在帮助视障人士或盲人行人使用公共交通工具的应用程序在华盛顿地铁站首次亮相。该应用程序名为Waymap,旨在为盲人和视

2022年情况又要变了!华硕高管:今年PC恐怕要供过于求

这两年来,由于疫情导致的居家办公及远程教育需求爆发,一直在下跌的PC市场枯木逢春,2021年更是创下了2012年以来的最快增长,然而2022年情

垃圾佬的心头好!西数新款固态盘SN740曝光

对于DIY垃圾佬来说,散片、拆机件、工包……这些名词怕是并不陌生。本周,西数推出了主要供应OEM厂商的新款固态盘SN740。SN740升级到了第五

虚假宣传、误导消费者 倍至冲牙器关联公司被处罚

后来者要想在激烈的市场竞争中立足,如果可以背靠巨头享受大树底下好乘凉的红利,那自然是皆大欢喜,没有这个福气,也大可凭借自己一步一个

吉利几何EX3功夫牛高居榜首,4月投诉量230起

近日,车质网发布了2022年4月车型投诉排行八卦(前30名),其中有不少产品的出现属实让人没想到。具体来看,吉利几何EX3功夫牛高居榜首,4月

“说好了未达到目标全额退款,结果都是骗人的!”

春天不减肥,夏天徒伤悲。一波减肥大军抱着坚定的信念踏上征途,发现身边各式各样的高端减肥训练营正打着健康减肥封闭管理保质保量包吃包住