您的位置: 专家智库 > >

王龙

作品数:6 被引量:26H指数:4
供职机构:解放军电子工程学院更多>>
发文基金:国家自然科学基金安徽省自然科学基金更多>>
相关领域:自动化与计算机技术电子电信更多>>

文献类型

  • 6篇中文期刊文章

领域

  • 5篇自动化与计算...
  • 1篇电子电信

主题

  • 5篇语音
  • 5篇语音识别
  • 3篇循环神经网络
  • 3篇语言模型
  • 3篇神经网
  • 3篇神经网络
  • 3篇网络
  • 3篇连续语音
  • 3篇连续语音识别
  • 2篇自适
  • 2篇自适应
  • 1篇优化算法
  • 1篇语言
  • 1篇在线自适应
  • 1篇声学模型
  • 1篇声学特征
  • 1篇说话人自适应
  • 1篇特征提取
  • 1篇特征提取方法
  • 1篇区分性

机构

  • 3篇解放军电子工...
  • 3篇电子工程学院
  • 3篇安徽省电子制...

作者

  • 6篇杨俊安
  • 6篇王龙
  • 6篇陈雷
  • 2篇刘辉
  • 2篇李晋徽
  • 1篇王一

传媒

  • 2篇声学技术
  • 1篇无线电通信技...
  • 1篇火力与指挥控...
  • 1篇应用科学学报
  • 1篇信号处理

年份

  • 2篇2016
  • 4篇2015
6 条 记 录,以下是 1-6
排序方式:
LVCSR系统中一种基于区分性和自适应瓶颈深度置信网络的特征提取方法被引量:9
2015年
大词汇量连续语音识别系统中,为了进一步增强网络的鲁棒性、提升瓶颈深度置信网络的识别准确率,本文提出一种基于区分性和自适应瓶颈深度置信网络的特征提取方法。该方法首先使用鲁棒性较强的瓶颈深度置信网络进行初步特征提取,进而进行区分性训练,使网络的区分性更强、识别准确率更高,在此基础上引入说话人自适应技术对网络进行调整,提高系统的鲁棒性。本文利用提出的声学特征在多个噪声较强、主题风格较为随意的多个公共连续语音数据库上进行了测试,识别准确率取得了6.9!的提升。实验结果表明所提出的特征提取方法相对于传统方法的优越性。
陈雷杨俊安王一王龙
关键词:连续语音识别说话人自适应
一种新的基于DBN的声学特征提取方法
2015年
大词汇量连续语音识别系统中,为了进一步增强网络的鲁棒性、提升深度置信网络的识别准确率,提出一种基于区分性和ODLR自适应瓶颈深度置信网络的特征提取方法。该方法首先使用鲁棒性较强的瓶颈深度置信网络进行初步特征提取,进而进行区分性训练,使网络的区分性更强、识别准确率更高,在此基础上引入说话人自适应技术对网络进行调整,提高模型的鲁棒性。利用提出的声学特征在多个噪声较强、主题风格较为随意的多个公共连续语音数据库上进行了测试,识别结果取得了22.2%的提升。实验结果表明所提出的特征提取方法有效性。
陈雷杨俊安王龙李晋徽
关键词:连续语音识别
连续语音识别中基于Dropout修正线性深度置信网络的声学模型被引量:4
2016年
大词汇量连续语音识别系统中,为了增强现有声学模型的表征能力、防止模型过拟合,提出一种基于遗失策略(Dropout)修正线性深度置信网络的声学模型构建方法。该方法使用修正线性函数代替传统Logistic函数进行深度置信网络训练,修正线性函数更接近生物神经网络的工作方式,增强了模型的表征能力;同时引入Dropout策略对修正线性深度置信网络进行调整,避免节点之间的协同作用,防止网络出现过拟合。文章利用公开语音数据集进行了实验,实验结果证明了所提出的声学模型构建方法相对于传统方法的优越性。
陈雷杨俊安王龙李晋徽
关键词:连续语音识别过拟合DROPOUT
基于循环神经网络的汉语语言模型建模方法被引量:5
2015年
语言模型是语音识别系统的重要组成部分,目前的主流是n-gram模型。然而n-gram模型存在一些不足,对语句中长距信息描述差、数据稀疏是影响模型性能的两个重要因素。针对不足,研究者提出循环神经网络(Recurrent Neural Network,RNN)建模技术,在英语语言模型建模上取得了较好的效果。根据汉语特点将RNN建模方法应用于汉语语言建模,并结合两种模型的优点,提出了模型融合构建方法。实验结果表明:相比传统的n-gram语言模型,采用RNN训练的汉语语言模型困惑度(Per PLexity,PPL)有了下降,在对汉语电话信道的语音识别上,系统错误率也有下降,将两种语言模型融合后,系统识别错误率更低。
王龙杨俊安陈雷林伟
关键词:语音识别循环神经网络语言模型
基于RNN汉语语言模型自适应算法研究被引量:4
2016年
深度学习在自然语言处理中的应用越来越广泛。相比于传统的n-gram统计语言模型,循环神经网络(Recurrent Neural Network,RNN)建模技术在语言模型建模方面表现出了极大的优越性,逐渐在语音识别、机器翻译等领域中得到应用。然而,目前RNN语言模型的训练大多是离线的,对于不同的语音识别任务,训练语料与识别任务之间存在着语言差异,使语音识别系统的识别率受到影响。在采用RNN建模技术训练汉语语言模型的同时,提出一种在线RNN模型自适应(self-adaption)算法,将语音信号初步识别结果作为语料继续训练模型,使自适应后的RNN模型与识别任务之间获得最大程度的匹配。实验结果表明:自适应模型有效地减少了语言模型与识别任务之间的语言差异,对汉语词混淆网络进行重打分后,系统识别率得到进一步提升,并在实际汉语语音识别系统中得到了验证。
王龙杨俊安刘辉陈雷林伟
关键词:循环神经网络语言模型在线自适应
基于循环神经网络的汉语语言模型并行优化算法被引量:7
2015年
计算复杂度高导致循环神经网络语言模型训练效率很低,是影响实际应用的一个瓶颈.针对这个问题,提出一种基于批处理(mini-batch)的并行优化训练算法.该算法利用GPU的强大计算能力来提高网络训练时的矩阵及向量运算速度,优化后的网络能同时并行处理多个数据流即训练多个句子样本,加速训练过程.实验表明,优化算法有效提升了RNN语言模型训练速率,且模型性能下降极少,并在实际汉语语音识别系统中得到了验证.
王龙杨俊安陈雷林伟刘辉
关键词:语音识别循环神经网络语言模型
共1页<1>
聚类工具0