采用端到端方法构建声学模型,以字为建模单元,采用 DCNN-CTC
网络结构,希望集众人力量改进以字为建模单元的声学模型。
python 3.x
keras 2.0
Tensorflow 1.8.0
numpy
wave
python_speech_features
random
os
scipy
difflib
由于数据较大,程序的实验数据可以从 data_Thchs30 下载,在此感谢清华大学对语音识别领域的贡献;
下载完成解压后放在程序的同级目录;
程序不仅是对中文语音识别声学模型以字为建模单元的的构建,而且为英文语音识别以字为建模单元提供一定的指导意义;
欢迎各位朋友提出宝贵建议;交流QQ群:737145025
本程序感谢江南大学、西安电子科技大学、湘潭大学等众多高校合作完成,目前程序采用的是Thchs30数据集为基础数据集,采用的深度卷积神经网络与连接时序分类损失函数构建端到端语音识别声学模型,由于数据只有30h左右,目前的识别字错误率在85-90%左右,后续开发者可以在此基础模型上增加数据,改进模型,修改预处理方案等改进声学模型的准确率;
具体的数据可以从 data_aishell下载数据集进行数据扩充,具体有STCMDS、Aishell-01、Aishell-02等中文数据集;
由于脚本申请版权保护,学术使用免费,商用请联系本人QQ :76859420或者项目组长姚师兄 QQ:1840658279;
欢迎各位朋友对本程序提出宝贵建议;交流QQ群:737145025
由于自己一直是以拼音建模,字级别是由于看了中科院论文,自己便实现一下,由于是初步模型,目前最好的WER在85%左右,后续个人认为的可能的改进方案有:
(1)采用数据预处理,对数据进行加噪声,或者采用传统的降噪方法,谱减法等方案,详细内容可以看赵雪英老师的数字语音处理及MATLAB仿真;
(2)模型自身抗噪,可以采用RNN
网络结构,以及自适应方案;
(3)数据增强技术,数据扩充等;
(4)采用基于Attention
机制融入CTC,二者取长补短
个人博客 包含自己近期的学习总结