当前位置:文档之家› 基于片上系统SoC的孤立词语音识别算法设计.doc

基于片上系统SoC的孤立词语音识别算法设计.doc

基于片上系统SoC的孤立词语音识别算法设计.doc
基于片上系统SoC的孤立词语音识别算法设计.doc

基于片上系统SoC 的孤立词语音识别算法设计

发布日期:2008-01-30 作者:刘胜洋 宋志勇 来源:微计算机信息

摘要:本文首先介绍了研究的孤立词语音识别系统,并针对片

上系统进行了语音识别算法的选择。然后对基于语音帧的端点

检测算法、线性预测编码倒谱系数LPCC 算法和动态时间规整

DTW 算法进行了详细的分析和设计。对于新型语音识别SoC

芯片的开发研制和推动片上可编程系统(SOPC )的研究与发

展具有一定的理论和实践意义。

关键词: 片上系统;语音识别;端点检测;LPCC ;DTW

1. 引言

目前,嵌入式语音识别系统的实现主要通过单片机MCU 和数字信号处理器DSP 来实现[1]。但是单片机运算速度慢,处理能力不高;虽然DSP 处理速度很快,但是产品的成本很高,电源能量消耗也很大。因此,为了满足嵌入式交互系统的体积越来越小、功能越来越强的苛刻需求,语音识别片上系统SoC (System on Chip )应运而生。

语音识别片上系统SoC 本身就是一块芯片,在单一芯片上集成了模拟语音模数转换器ADC 、数模转换器DAC 、信号采集和转换、处理器、存储器和I/O 接口等,只要加上极少的电源就可以具有语音识别的功能,集成了声音信息的采集、取样、处理、分析和记忆。SoC 具有片内处理器和片内总线,有着更灵活的应用方式。它具有速度快,体积小,成本低,可扩展性强等优点,有着广泛的应用前景,已经成为语音识别技术应用发展的一个重要方向[2-3]。研究和开发应用于片上系统SoC 芯片的语音识别算法有着非常重要的意义。

2. 孤立词语音识别系统

孤立词语音识别系统应用于嵌入式控制领域,例如数字家庭控制、车载语音控制和智能语音可控玩具等。在训练阶段,用户将每一个词依次说一遍,并将计算得到的每一个词所对应的特征矢量序列作为模板存入模板库中。在识别阶段,将输入语音的特征矢量序列依次与模板库中的每一模板进行相似度比较,将相似度最高者作为识别结果输出。

3. 针对片上系统SOC 的孤立词语音识别算法设计

在SoC 芯片中实现孤立词语音识别系统,就要根据语音识别片上系统的特点,来进行SoC 的语音识别算法的选择和设计。

首先是特征提取算法的选择。MFCC 算法考虑到了人的听觉效果,能很好的表征语音信号,而且在噪声环境下能取得很好的识别效果。而LPC 系数主要是模拟人的发声模型,对元音有较好的的描述能力,对辅音描述能力较差,抗噪声性能也相对差一些。但是从算法的计算量来考虑,MFCC 提取特征参数是LPCC 的10倍左右,通常在嵌入式系统下较难实现实时性。因此,选用LPCC 算法。

模式匹配技术的选择。隐马尔柯夫模型HMM方法是用概率及统计学理论来对语音信号进行分析与处理的,适用于大词汇量、非特定人的语音识别系统。该算法对系统资源的要求较多。而动态时间规整技术DTW 采用模板匹配法进行相似度计算,是一个最为小巧的语音识别算法,系统开销小,识别速度快,可有效节约系统资源,降低系统成本开支。由于嵌入式系统资源有限,语音命令识别系统所需要的词汇量有限,所需识别的语音都是简短的命令,模式匹配算法选择DTW。

3.1 端点检测算法设计

一个好的端点检测算法可以在一定程度上提高系统的识别率。在双门限端点检测原理的基础上,进行语音端点检测算法的设计。为了提高端点检测的精度,采用短时能量E和短时过零率ZCR。

语音采样频率为8KHz,量化精度为16位,数字PCM码首先经过预加重滤波器H(z)=2-0.95z-1,再进行分帧和加窗处理,每帧30ms,240点为一帧,帧移为80,窗函数采用Hamming窗。然后对每帧语音进行归一化处理,即把每点的值都除以所有语音帧中数值绝对值的最大值,把值的范围从[-32767,32767]转换到[-1,1]。

在实验中发现,双门限端点检测算法对于两个汉字和三个汉字的语音命令端点检测效果不好。以语音“开灯”为例,如图1所示语音波形图中,端点检测只能检测到第一个字。

图1 改进前对语音“开灯”的端点检测

Fig2. the endpointing detection of speech “kaideng” before ameliorate

如果语音命令中两个字的间隔过长,使用双门限端点检测方法会发生只检测到第一个字的情况,在实际中“开灯”和“开门”等命令只提取了“开”字的语音,从而可能造成语音匹配的错误。

为避免该错误,采用的办法是,把可容忍的静音区间扩大到15帧(约150ms)。在双门限的后一门限往后推迟15帧,如15帧内一直没有energy和ZCR超过最低门限,则认为语音结束;如发现仍然有语音,则继续算入在内。

图2 改进后对语音“开灯”的端点检测

Fig3. the endpointing detection of speech “kaideng” after ameliorate

改进后,整个语音信号的端点检测流程设计为四个阶段:静音、过渡段、语音段和语音结束。在静音段,如果能量或过零率超越了低门限,就应该开始标记起始点,进入过渡段。在过渡段中,由于参数的数值比较小,不能确信是否处于真正的语音段,因此只要两个参数的数值都回落到低门限以下,就将当前状态恢复到静音状态。而如果在过渡段中两个参数中的任一个超过了高门限,就可以确信进入语音段。在语音段,如果两个参数的数值降低到低门限以下,并且一直持续15帧,那么语音进入停止。如果两个参数的数值降低到低门限以下,但是并没有持续到15帧,后续又有语音段越过低门限,那么认为语音还没有结束。最后,如果检测出的这段语音总长度小于可接受的最小的语音帧数(设为15帧),则认为是一段噪音而放弃。

采用改进后的端点检测算法,对于单个汉字或多个汉字的语音命令均识别正常。图2为语音“开灯”的端点检测图(两条红线以内的部分为检测出来的语音部分)。

3.2 LPCC特征参数提取算法设计

LPC参数是模拟人的发声器官的,是一种基于语音合成的特征参数。在实际应用中,使用较多的是由LPC 系数推导出的另一种系数,线性预测倒谱系数LPCC(Linear Predictive Ceptrum Coefficients)。

3.2.1线性预测编码LPC算法

LPC模型的基本思想是:对于给定一n时刻采样的语音信号采样值s(n),可以用p个取样值的加权和线性组合来表示[4]。 a1, a2,…, a p称为LPC系数,也是全极点H(z)模型的参数。

cm为倒谱系数,am为线性预测系统,m为倒谱系数的阶数,p为线性预测系统的阶数。这样利用LPC系数通过递推公式可以得到LPCC参数。LPCC由于利用了线性预测中声道系统函数的最小相位特性,避免了相位卷积、求复对数

3.3 基于DTW的模式匹配算法设计

3.3.1 动态时间规整DTW算法

存入模板库的各个词条称为参考模板,一个参考模板可表示为R={R(1), R(2),…, R(m),…, R(M)}。m为训练语音帧的时序标号,m =1为起点语音帧,m =M为终点语音帧,M为该模式包含的语音帧总数,R(m)为第m帧的语音LPC倒谱特征矢量。所要识别的一个输入词条语音称为测试模板,可表示为T={T (1), T(2),…, T(n),…, T (N)},n为测试语音帧标号,模式中共包含N帧语音,T(n)为第n帧的LPC倒谱特征矢量。

比较参考模板和测试模板的相似度,可以计算它们的距离D[T,R],距离越小则相似度越高。语音中各个段落在不同情况下的持续时间会产生或长或短的变化,大多数情况下测试模板和参考模板长度不相等N≠M,因此采用动态规整(DP)的方法。

DTW算法的实现为:分配两个N×M矩阵,分别为累积距离矩阵D和帧匹配距离矩阵d,其中帧匹配距离矩阵d(i,j)的值为测试模板的第i帧与参考模板的第j帧间的距离。算法分为两步:先要计算参考模板的所有帧和未知模板的所有帧之间的相互距离,结果存在矩阵d中;然后根据判断函数计算累积距离矩阵D,D(N,M)即为最佳匹配路径所对应的匹配距离。DTW算法约束端点条件为:起点(1,1),终点(n,m),n 和m分别为测试和参考语音模板的帧序列长度。

3.3.2 应用中提高识别率的改进方法

在应用中,提高DTW识别率的办法有冗余模板法、松弛起点终点法、改进局部路径约束函数法等。

(1)冗余模板法。采用每个词条多套模板的方法,可以改进其识别效果。在实验中,采用在语音训练阶段,每个词条训练四次,即每个词条提取出4个参考模板,这样,只要测试模板与4个参考模板中的一个匹配成功,匹配结果就是正确的,这样便大大提高了识别率。

(2)松弛起点终点法。将匹配过程中的固定起点(终点)改为松弛起点(终点)。端点对齐的限制条件提高了对语音端点检测的精度要求。路径不再是从(1,1)点出发,可以从(n,m)=(1,2)或(2,1),或(1,3)或(3,1)…点出发,称为松弛起点。同样,路径也不必在(N,M)点结束,可在(n,m)=(N,M-1)或(N-1,M)或(N,M-2)或(N-2,M)点…结束,称为松弛终点。松弛起点终点的优点是可克服由于端点检测不精确造成测试模板和参考模板起点终点不能严格对齐的问题[6]。

(3)改变局部路径约束函数法。不同的连续性条件导致了不同的路径,局部路径约束函数不一样,DTW 识别效果就会不同。可以对局部约束路径进行加权处理,提高识别率。

本文中采用的模板匹配算法就是融合这三种改进技术后的动态规整算法,称之为ADTW算法。对这种算法进行了实验,得到该算法的实际识别率,并对之进行分析。

3.3.3 应用中提高算法效率的改进方法

在计算传统DTW算法过程中,如果限定动态规整的计算范围,可以大大减小计算量,提高程序的性能。

采用平行四边形限制动态规整范围,如图3,菱形之外的节点对应的帧匹配距离是不需要计算的,也没有必要保存所有帧匹配距离矩阵和累积距离矩阵,以ADTW的局部约束路径为例,每一列各节点上的匹配计算只用到了前两列的几个节点。充分利用这两个特点可以减少计算量和存储空间的需求。把实际的动态规整分为三段,(1,X a),(X a+1,X b)和(X b+1,N),

由于X轴上每前进一帧,只用到前两列的累积距离,所以只需要三个列矢量A、B和C分别保存连续三列的累积距离,而不需保存整个距离矩阵。每前进一帧都对A、B、C进行更新,即用A和B的值求出C,再根据B和C的值求出下一列的累积矩阵放入A中,由此可以反复利用这三个矢量,一直前进到X轴上最后一列,最后一个求出矢量的第M个元素即为两个模板动态规整的匹配距离。

高效DTW对识别的区域进行了限制,整个平面区域大小为M×N,匹配区域的大小为

公式(12)

若M=N=150,则限定区域内的计算量只是传统DTW算法计算量的24%;同时算法节省了空间,由原来的2个N×M矩阵,减少为3个M矢量,大大减少了需要的存储空间,解决了普通DTW算法在存储空间有限的嵌入式系统中难以实现的问题。

4. MATLAB实验与分析

为了对算法的识别效果进行测试,设计了用于数字家庭控制系统的识别命令集,并基于Matlab构建了孤立词语音识别系统,对识别算法进行实验和分析。该命令集包括语音命令100条,分别是如下几类:

l 语音通话控制命令,例如,“拨打电话”,数字,人名;

l 音乐控制类,“打开音乐”、“减小音量”等;

l 门窗控制类,“关闭百叶窗”、“打开大门”等;

l 家庭电器控制类,“打开空调”、“打开收音机”等。

该系统使用设计的端点检测技术、特征提取和模板匹配技术。语音采用频率为8KHz,16位量化精度,预加重系数a=0.95,语音帧每帧30ms,240点为一帧,帧移为80,窗函数采用Hamming 窗。LPC参数为10阶,LPCC参数为16阶。实验人员为三名同学,两男一女,分别用甲乙丙代表,实验环境为办公室环境。实验平台为Windows XP,Matlab 7.0,进行的各项实验和数据分别如下:

(1)改进端点检测实验

针对于设计的端点检测算法,得到改进前和改进后语音识别率的变化,数据见表1。其中,改进前和改进后所用的参考模板和测试模板数据相同。实验的过程是,Matlab程序自动把50个测试模板逐个和100个参考模板进行匹配,找到测试模板所对应的语音命令。

表1 改进端点检测前后的识别率

Table 1. the recognition ratio of before and after ameliorate endpointing detection

从数据可以看出,对端点检测进行改进后,平均识别率从74%提高到82%,这是因为改进后的端点检测能够有效地区分噪音和语音,严格的把语音段提取出来。

(2)使用冗余参考模板实验

对每个语音命令建立四个参考模板,其他同实验(1),实验数据见表2。

表2 使用冗余参考模板前后的识别率

Table 2. the recognition ratio of before and after use redundancy reference template

从实验数据看出,使用冗余模板后,平均识别率由87.5%提高到95%,平均误识率由12.5%下降到5%。所以,使用冗余参考模板有效的提高了识别性能。

(3)提高识别率的ADTW实验

基于实验(2),使用松弛起点终点法和改变局部判决路径函数法对DTW进行改进,称改进后的算法为ADTW,改进前后的两种算法都采用一个词条四个模板。实验数据见表3,其中平均识别率为三个人的平均识别率。

表3 传统DTW和ADTW识别率比较

Table 3. the recognition ratio of DTW and ADTW

从实验数据可以看出,ADTW相对于传统的DTW算法,平均识别率有了一定的提高,因为本文实现的系统采用了ADTW算法。该算法平均识别率为98%,基本满足了语音识别片上系统的需要。

5. 总结

本文在研究了现有的语音识别算法和理论的基础上,在应用中对双门限端点检测算法作了延长可容忍静音的改进,在一定程度上提高了整个系统的识别率;特征提取技术采用了线性预测编码LPC及其倒谱系数LPCC,对其计算过程进行了分析。从提高算法识别率和提高算法执行效率两个角度对DTW进行了改进和重新设计,提出了松弛起点终点和改进局部判决函数的ADTW算法,在实验中获得了很高的识别率。

参考文献

[1] 孙样娥,汪忠德.基于G.729算法的新型语音通信系统的实现.微计算机信息[J],2005, 21-4:152-154

[2] 朱璇, 刘加, 刘润生. 语音识别技术新热点—语音识别专用芯片. 世界电子元器件[J], 2002:26-27.

[3] 赵念强,鲍可进,申屠浩.基于Soc单片机C8051F的码头供给监控系统. 微计算机信息[J],2005,

21-3:46-48.

[4] 杨行峻, 迟惠生. 语音信号数字处理[M]. 电子工业出版社, 1995.

[5] Itakura F. Minimum prediction residual applied to speech recognition. IEEE Transactions on Acoustics, Speech, and Signal Processing[J], 1975, 23:67-72.

[6] Bernd Burchard, Ronald Romer. A single chip phoneme based HMM speech recognition system for consumer applications IEEE2000[J].

matlab语音识别系统(源代码)最新版

matlab语音识别系统(源代码)最新版

目录 一、设计任务及要求 (1) 二、语音识别的简单介绍 2.1语者识别的概念 (2) 2.2特征参数的提取 (3) 2.3用矢量量化聚类法生成码本 (3) 2.4VQ的说话人识别 (4) 三、算法程序分析 3.1函数关系 (4) 3.2代码说明 (5) 3.2.1函数mfcc (5) 3.2.2函数disteu (5) 3.2.3函数vqlbg (6) 3.2.4函数test (6) 3.2.5函数testDB (7) 3.2.6 函数train (8) 3.2.7函数melfb (8) 四、演示分析 (9) 五、心得体会 (11) 附:GUI程序代码 (12)

一、设计任务及要求 用MATLAB实现简单的语音识别功能; 具体设计要求如下: 用MATLAB实现简单的数字1~9的语音识别功能。 二、语音识别的简单介绍 基于VQ的说话人识别系统,矢量量化起着双重作用。在训练阶段,把每一个说话者所提取的特征参数进行分类,产生不同码字所组成的码本。在识别(匹配)阶段,我们用VQ方法计算平均失真测度(本系统在计算距离d时,采用欧氏距离测度),从而判断说话人是谁。 语音识别系统结构框图如图1所示。 图1 语音识别系统结构框图 2.1语者识别的概念 语者识别就是根据说话人的语音信号来判别说话人的身份。语音是人的自然属性之一,由于说话人发音器官的生理差异以及后天形成的行为差异,每个人的语音都带有强烈的个人色彩,这就使得通过分析语音信号来识别说话人成为可能。用语音来鉴别说话人的身份有着许多独特的优点,如语音是人的固有的特征,不会丢失或遗忘;语音信号的采集方便,系统设备成本低;利用电话网络还可实现远程客户服务等。因此,近几年来,说话人识别越来越多的受到人们的重视。与其他生物识别技术如指纹识别、手形识别等相比较,说话人识别不仅使用方便,而且属于非接触性,容易被用户接受,并且在已有的各种生物特征识别技术中,是唯一可以用作远程验证的识别技术。因此,说话人识别的应用前景非常广泛:今天,说话人识别技术已经关系到多学科的研究领域,不同领域中的进步都对说话人识别的发展做出了贡献。说话人识别技术是集声学、语言学、计算机、信息处理和人工智能等诸多领域的一项综合技术,应用需求将十分广阔。在吃力语音信号的时候如何提取信号中关键的成分尤为重要。语音信号的特征参数的好坏直接导致了辨别的准确性。

基于DTW算法的语音识别系统实现

基于DTW算法的语音识别系统实现 作者:吴晓平, 崔光照, 路康 作者单位:郑州轻工业学院信息与控制工程系,河南省,郑州市,450002 刊名: 电子工程师 英文刊名:ELECTRONIC ENGINEER 年,卷(期):2004,30(7) 被引用次数:13次 参考文献(5条) 1.祝晓阳;卢中宁;崔光照数字信号处理芯片TMS320VC5402的语音接口设计[期刊论文]-郑州轻工业学院学报(自然科学版) 2002(02) 2.陈志鑫;郭华伟基于TMS320C54xDSP的实时语音识别系统[期刊论文]-半导体技术 2001(04) 3.张勇C/C++语言硬件程序设计 2003 4.楼顺天基于MATLAB的系统分析与设计 2000 5.赵力语音信号处理 2003 引证文献(13条) 1.石太佳.王晓君基于LPMCC的语音识别系统实现[期刊论文]-电声技术 2010(1) 2.舒鹏飞.颜卫.徐魁基于ADSP的语音识别系统[期刊论文]-科协论坛(下半月) 2009(7) 3.吕涛.刘百芬.燕贤青一种基于定点DSP的语音识别算法实现[期刊论文]-华东交通大学学报 2008(6) 4.张钢.朱铮涛.何淑贤应用DTW的语音(声纹)鉴别技术研究[期刊论文]-中国测试技术 2007(2) 5.白志强.唐永哲基于动态时间规整的飞控系统故障诊断[期刊论文]-计算机仿真 2007(1) 6.王佑民.江城.吴丰博用FPGA实现基于内容的音频检索系统[期刊论文]-中国制造业信息化 2007(17) 7.何燕玲.马建国声控机器人的特定人孤立词汉语识别系统设计[期刊论文]-西南科技大学学报(自然科学版)2006(1) 8.杨占军.杨英杰.王强基于DSP的语音识别系统的设计与实现[期刊论文]-东北电力大学学报(自然科学版)2006(2) 9.王振浩.杜凌艳.李国庆.高树永动态时间规整算法诊断高压断路器故障[期刊论文]-高电压技术 2006(10) 10.高丙朋基于DSP的小词汇量语音识别系统[学位论文]硕士 2006 11.贺翠英说话人识别研究及DSP实现[学位论文]硕士 2006 12.白志强飞行控制系统故障检测研究与仿真软件开发[学位论文]硕士 2006 13.田强基于Sphinx汉语语音评价系统探讨[学位论文]硕士 2005 本文链接:https://www.doczj.com/doc/5e6884964.html,/Periodical_dzgcs200407007.aspx

特定人孤立词语音识别的研究毕业论文

本科学生毕业论文(设计) 题目(中 文): 特定人孤立词语音识别的研究 (英文): Research Of Speaker-dependent Isolated-word Speech recognition 姓名学号院(系)专业、年级指导教师

毕业设计(论文)原创性声明和使用授权说明 原创性声明 本人重承诺:所呈交的毕业设计(论文),是我个人在指导教师的指导下进行的研究工作及取得的成果。尽我所知,除文中特别加以标注和致谢的地方外,不包含其他人或组织已经发表或公布过的研究成果,也不包含我为获得及其它教育机构的学位或学历而使用过的材料。对本研究提供过帮助和做出过贡献的个人或集体,均已在文中作了明确的说明并表示了谢意。 作者签名:日期: 指导教师签名:日期: 使用授权说明 本人完全了解大学关于收集、保存、使用毕业设计(论文)的规定,即:按照学校要求提交毕业设计(论文)的印刷本和电子版本;学校有权保存毕业设计(论文)的印刷本和电子版,并提供目录检索与阅览服务;学校可以采用影印、缩印、数字化或其它复制手段保存论文;在不以赢利为目的前提下,学校可以公布论文的部分或全部容。

作者签名:日期:

科技学院本科毕业论文(设计)诚信声明 本人重声明:所呈交的本科毕业论文(设计),是本人在指导老师的指导下,独立进行研究工作所取得的成果,成果不存在知识产权争议,除文中已经注明引用的容外,本论文不含任何其他个人或集体已经发表或撰写过的作品成果。对本文的研究做出重要贡献的个人和集体均已在文中以明确方式标明。本人完全意识到本声明的法律结果由本人承担。 本科毕业论文(设计)作者签名: 二○○八年月日

基于单片机的语音识别系统 毕业设计

基于单片机的语音识别系统毕业设计 目录 摘要..................................... 错误!未定义书签。Abstract ................................. 错误!未定义书签。目录..................................................... I 前言.. (1) 1 方案介绍及设计简介 (2) 1.1小车的控制要求及设计方案 (2) 1.1.1小车的控制要求 (2) 1.1.2方案设计与论证 (2) 1.2SPCE061A 简介 (3) 1.2.1SPCE061A单片机概述 (5) 1.2.2SPCE061A的介绍 (7) 1.2.3SPCE061A的结构 (7) 1.3SPCE061A 单片机强大的语音功能 (7) 1.3.1语音识别的原理 (8) 1.3.2系统的结构框图 (9) 1.4语音控制小车设计要求 (10) 1.4.1功能要求 (10) 1.4.2语音控制小车的主要功能 (10) 1.4.3参数说明 (10) 1.4.4注意事项 (10) 2电路设计及程序设计 (11) 2.1电路设计基础知识 (11) 2.2电路方框图及说明 (13) 2.3各部分电路设计 (13) 2.3.1电机的选择 (14)

2.3.2继电器驱动电路的设计 (14) 2.3.3行驶状态控制电路设计 (15) 2.3.4麦克录音输入及AGC电路 (16) 2.3.5语音播报电路 (18) 3软件设计 (19) 3.1软件流程图及设计思路说明 (19) 3.1.1程序设计 (20) 3.2模块设计 (20) 3.2.1中断流程图部分 (20) 3.2.2语音识别部分 (22) 4连接和操作说明 (25) 4.1硬件模块连接图 (25) 4.1.1功能说明 (25) 4.1.2代码下载 (26) 4.1.3训练小车 (27) 4.1.4声控小车 (28) 4.1.5重新训练 (28) 总结 (30) 致谢 (31) 参考文献 (32) 附件1 系统程序说明 (33)

孤立词语音识别程序

孤立词语音识别程序

信息处理仿真实验语音处理部分 一、实验目的 按所学相关语音处理的知识,自己设计一个孤立词语音识别程序,分析所设计系统的特性。熟悉不同模块间如何进行有效的组合,以及模 块内的设计,重点掌握特征参数的提取和模式识别方法,并对不同的特 征参数提取方法和模式匹配方法有大概的了解,知道其不同的优缺点。 二、实验内容 1、熟悉预处理、特征参数提取、模式匹配三个模块的原理,并设计 这三个模块的matlab子程序。 2、设计主程序,将上述3个模块合理组合构成一个系统,训练模板并 测试。 三、实验原理及设计步骤 1、孤立词语音识别系统:先用端点检测将语音中有用的语音部分提取出来(即 将头部和尾部的静音部分除掉),然后提取语音信号的Mel尺度倒谱参数(MFCC),进行动态归整(DTW算法)后与模板库里面的标准语音作比较,具体流程如下: 图3.1孤立词语音识别系统 2、各模块解析 ⑴预处理:包括反混叠失真滤波器、预加重器、端点检测和噪声滤波器。这里 将预加重器和噪声滤波器放在下一个模块里,所以预处理主要进行端点检测以捕捉到数据中的语音信息。 端点检测采用双门限法来检测端点。同时,利用过零率检测清音,用短时能量检测浊音,两者配合。整个语音信号的端点检测可以分为四段:静音、过渡段、语音段、结束。程序中使用一个变量status来表示当前 所处的状态。 在静音段,如果能量或过零率超越了低门限,就应该开始标记起始点,进入过渡段。 在过渡段中,由于参数的数值比较小,不能确信是否处于真正的语音段,因此只要

两个参数的数值都回落到低门限以下,就将当前状态恢复到静音状态。 而如果在过渡段中两个参数中任意一个超过了高门限,就可以确信 进入语音段了。 一些突发性的噪声可以引发短时能量或过零率的数值很高,但是往往不 能维持足够长的时间,这些可以通过设定最短时间门限来判别。当 前状态处于语音段时,如果两个参数的数值降低到低门限以下,而 且总的计时长度小于最短时间门限,则认为这是一段噪音,继续扫 描以后的语音数据。否则就标记好结束端点,并返回 ⑵特征参数提取:常用的语音识别参数有线性预测参数(LPC),线性预测倒谱 参数(LPCC)和Mel 尺度倒谱参数(MFCC)等。这里提取语音信号的Mel 尺度倒谱参数(MFCC),步骤如下: 预 加 重汉明窗傅立叶变 换取模三角滤波函数组取对数离散余弦变换语音 信号MFCC 归一化导谱提升计算差分系数并合 并特征参数 图3.2特征参数提取 分析: ①预加重 ()()-0.97(1)y n x n x n =- ②加汉明窗 ()()()w x n y n w n =? ③ FFT 1 2/0()()N j nk N w w n X k x n e π--==∑ 这里直接采用现成的FFT 快速算法。 ④对频谱进行三角滤波 程序采用归一化mel 滤波器组系数 ⑤计算每个滤波器的输出能量 120()ln ()()0N w m k S m X k H k m M -=??=≤< ??? ∑ ⑥离散余弦变换(DCT)得到MFCC ()1()()cos (0.5)/1,2,...,M m C n S m n m M n p π==-=∑ 通常协方差矩阵一般取对角阵,三角滤波器组的对数能量输出之间

语音识别基本知识及单元模块方案设计

语音识别是以语音为研究对象,通过语音信号处理和模式识别让机器自动识别和理解人类口述的语言。语音识别技术就是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的高技术。语音识别是一门涉及面很广的交叉学科,它与声学、语音学、语言学、信息理论、模式识别理论以及神经生物学等学科都有非常密切的关系。语音识别技术正逐步成为计算机信息处理技术中的关键技术,语音技术的应用已经成为一个具有竞争性的新兴高技术产业。 1语音识别的基本原理 语音识别系统本质上是一种模式识别系统,包括特征提取、模式匹配、参考模式库等三个基本单元,它的基本结构如下图所示: 未知语音经过话筒变换成电信号后加在识别系统的输入端,首先经过预处理,再根据人的语音特点建立语音模型,对输入的语音信号进行分析,并抽取所需的特征,在此基础上建立语音识别所需的模板。而计算机在识别过程中要根据语音识别的模型,将计算机中存放的语音模板与输入的语音信号的特征进行比较,根据一定的搜索和匹配策略,找出一系列最优的与输入语音匹配的模板。然后根据此模板的定义,通过查表就可以给出计算机的识别结果。显然,这种最优的结果与特征的选择、语音模型的好坏、模板是否准确都有直接的关系。2语音识别的方法 目前具有代表性的语音识别方法主要有动态时间规整技术(DTW)、隐马尔可夫模型(HMM)、矢量量化(VQ)、人工神经网络(ANN)、支持向量机(SVM)等方法。 动态时间规整算法(Dynamic Time Warping,DTW)是在非特定人语音识别中一种简单有效的方法,该算法基于动态规划的思想,解决了发音长短不一的模板匹配问题,是语音识别技术中出现较早、较常用的一种算法。在应用DTW算法进行语音识别时,就是将已经预处理和分帧过的语音测试信号和参考语音模板进行比较以获取他们之间的相似度,按照某种距离测度得出两模板间的相似程度并选择最佳路径。 隐马尔可夫模型(HMM)是语音信号处理中的一种统计模型,是由Markov链演变来的,所以它是基于参数模型的统计识别方法。由于其模式库是通过反复训练形成的与训练输出信号吻合概率最大的最佳模型参数而不是预先储存好的模式样本,且其识别过程中运用待识别语音序列与HMM参数之间的似然概率达到最大值所对应的最佳状态序列作为识别输出,因此是较理想的语音识别模型。 矢量量化(Vector Quantization)是一种重要的信号压缩方法。与HMM相比,矢量量化主要适用于小词汇量、孤立词的语音识别中。其过程是将若干个语音信号波形或特征参数的标量数据组成一个矢量在多维空间进行整体量化。把矢量空间分成若干个小区域,每个小区域寻找一个代表矢量,量化时落入小区域的矢量就用这个代表矢量代替。矢量量化器的设计就是从大量信号样本中训练出好的码书,从实际效果出发寻找到好的失真测度定义公式,设计出最佳的矢量量化系统,用最少的搜索和计算失真的运算量实现最大可能的平均信噪比。在实际的应用过程中,人们还研究了多种降低复杂度的方法,包括无记忆的矢量量化、有记忆的矢量量化和模糊矢量量化方法。 人工神经网络(ANN)是20世纪80年代末期提出的一种新的语音识别方法。其本质上是一

用于孤立词识别的语音识别系统实验报告

用于孤立词识别的语音识别系统实验报告 语音是人际交流的最习惯、最自然的方式,它将成为让计算机智能化地与人通信,人机自然地交互的理想选择。让说话代替键盘输入汉字,其技术基础是语音识别和理解。语音识别将人发出的声音、音节、或短语转换成文字和符号,或给出响应执行控制,作出回答。 该系统用于数字0~9的识别,系统主要包括训练和识别两个阶段。实现过程包括对原始语音进行预加重、分帧、加窗等处理,提取语音对应的特征参数。在得到了特征参数的基础上,采用模式识别理论的模板匹配技术进行相似度度量,来进行训练和识别。在进行相似度度量时,采用DTW 算法对特征参数序列重新进行时间的对准。 一、 特征提取 1、端点检测 利用短时平均幅度和短时过零率进行端点检测,以确定语音有效范围 的开始和结束位置。 首先利用短时平均幅度定位语音的大致位置。做法为:(1)确定一个 较高的阈值MH,短时平均幅度大于MH 的部分一定是语音段。(2)分别沿这一语音段向两端搜索,大于某个阈值ML 的部分还是语音段,这样能较为准确地确定语音的起始点,将清音与无声段分开。因为清音的过零率远远高于无声段,确定一个过零率的阈值Z min , 从ML 确定的语音段向前搜 索不超过一帧的长度,短时过零率突然低于Z min 三倍的点被认为是语音的 起始点。 2、预加重 对输入的原始语音进行预加重,其目的是为了对语音的高频部分进行加重,增加语音的高频分辨率。假设在n 时刻的语音采样值为x(n),则经过预加重处理后的结果为: y(n)=x(n)+αx(n-1) α=0.98 3、分帧及加窗 语音具有短时平稳的特点,通过对语音进行分帧操作,可以提取其短时特性,便于模型的建立。帧长取为30ms ,帧移取为10ms ,然后将每帧信号用Hamming 窗相乘,以减小帧起始和结束处的信号不连续性。Hamming 窗函数为: w(n)=0.54-0.46cos(1 2-N n π) (0≤n ≤N-1) 该系统中,hamming 窗的窗长N 取为240。 设原始信号为s(n),加窗后为:

语音识别字符分割算法_原创.

5.设计方法 5.1概述 5.2硬件系统的设计 语音信号预处理 (1)预加重 预加重的目的是提升高频部分,使信号的频谱变得平坦,保持在低频到高频的整个频带中,能用同样的信噪比求频谱,以便于频谱分析或声道参数分析。在计算机里用具有6dB/频程升高频特性的预加重数字滤波器来实现,一般是一阶的FIR数字滤波器: 为预加重系数,值接近于l,在0.9和1之间,典型值为0.94。 预加重的DSPBuilder实现: 为了便于实现,将上式中的一阶FIR预加重滤波器用差分方程表示为: 其中,为原始语音信号序列,N为语音长度,上面的公式显示其在时域 上的特性。又因为0.94接近于15/16,所以将上面的式子变为 除以16可以用右移4位来实现,这样就将除法运算化简为移位运算,降低了计算复杂度。在后面的模块设计中,也乘以或者除以一些这样的数,这些数为2的幂次,都可以用移位来实现。 预加重的硬件实现框图如下: 预加重实现框图 DSP Builder中的图形建模为:

预加重滤波器的DSPBuilder结构图 (2)分帧 语音信号是一种典型的非平稳信号,其特性随时间变化,其在很短的时间内是平稳的,大概为1小20ms,其频谱特性和物理特征可近似的看做不变,这样就可以采用平稳过程的分析处理方法来处理。 分帧的DSP Builder实现: 语音信号在10到20ms之间短时平稳(这样可以保证每帧内包含1一7个基音周期),也就是说选取的帧长必须介于10到20ms之间,此外,在MFCC特征提取时要进行FFT变换,FFT点数一般为2的幂次,所以本文中选择一帧长度为16ms,帧移为1/2帧长,这样一帧就包含了16KHz*16ms=256个点,既满足短时平稳,又满足FFT变换的要求。 由于采集的语音是静态的,语音长度已知,很容易计算出语音的帧数,但是在硬件上或实时系统中,语音长度是无法估计的,而且还要考虑存储空间的大小和处理速度,采用软件实现时的静态分帧方法是行不通的,可以利用硬件本身的特点进行实时的动态分帧。 为了使帧与帧之间平滑过渡,保持连续语音流的自相关性和过渡性,采用交叠分帧的算法。帧移取1/2帧长,即128个数据点当作一个数据块。FIFO1大小为一帧语音长度,分成两个数据块,预加重后的数据写入这个FIFO。为了实现帧移交叠,在FIFO1读数据时,同时再用FIFO2保存起来,当FIFO的一块数据读完以后,紧接着从FIF22读出这一块的副本。写入的一块数据,相当于被重复读出2次,所以FIFO1的读时钟频率设计为写时钟频率的2倍,而FIFOZ的读写时钟频率和FIFO1的读时钟频率相同。分帧以后的数据在图中按时间标号为1、2、2、3.··…,1、2为第一帧,2、3为第二帧,以此类推。

基于离散隐马尔科夫模型的语音识别技术

第24卷 第2期 2007年6月 河 北 省 科 学 院 学 报Journal of the Hebei Academy of Sciences Vol .24No .2June 2007 文章编号:1001-9383(2007)02-0008-04 基于离散隐马尔科夫模型的语音识别技术 高清伦,谭月辉,王嘉祯 (军械工程学院计算机工程系,河北石家庄 050003) 摘要:概述语音识别技术的基本原理,对当前三种主要识别技术———动态时间规整技术、隐含马尔科夫模型 技术及人工神经网络技术进行比较,重点介绍基于离散隐马尔科夫模型(DH MM )的语音识别系统的实现。关键词:语音识别;隐马尔科夫模型;动态时间规整;人工神经网络中图分类号:T N912.34 文献标识码:A Speech recogn iti on technology ba sed on d iscrete H MM GAO Q ing 2l un,TAN Yue 2hu i,WAN G J i a 2zhen (D epart m ent of Co m puter Engineering,O rdnance Engineering College,Shijiazhuang Hebei 050003,China ) Abstract:The conditi on and the basic p rinci p le of s peech recogniti on technol ogy are intr oduced,three differ 2ent kinds of s peech recogniti on syste m s such as DT W ,H MM ,ASR are compared,and p lace e mphasis on how t o realize DH MM in s peech recogniti on syste m is p resented e mphatically . Keywords:Speech recogniti on;H idden Markov Model (H MM );Dyna m ic Ti m e W ar p ing (DT W );A rtificial Neural Net w ork (ANN ) 语音识别技术是语音信号处理技术一个重要的研究方向,是让机器通过识别和理解过程把人 类的语音信号转变为相应的文本或命令的技术,它属于多维模式识别和智能计算机接口的范畴,涉及到声学、语音学、语言学、计算机科学、信号与信息处理和人工智能等诸多学科,是21世纪衡量一个国家信息科学技术发展水平的重要标准之一。 1语音识别技术概述 语音识别系统本质上是一种模式识别系统, 目前有很多语音识别算法,但其基本原理和基本 技术相似。一个完整的语音识别系统一般都包括有特征提取、模式匹配和参考模式库3个基本单元,它的基本结构如图1所示。 (1)特征提取 所谓特征提取就是从语音信号中提取用于语 音识别的有用信息,其基本思想是将预处理过的信号通过一次变换,去掉冗余部分,而把代表语音本质特征的参数抽取出来,如平均能量、平均跨零率、共振峰、LPC 系数、MFCC 系数等。 图1语音识别系统基本结构 (2)模式匹配 这是整个语音识别系统的核心,它是根据一定规则(如H MM )以及专家知识(如构词规则、语法规则、语义规则等),计算输入特征与参考模式 3收稿日期:2007-01-26 作者简介:高清伦(1976-),男,河北沧州人,硕士,主要从事信息工程理论应用方面的研究.

【完整版】基于Matlab的语音识别系统的设计本科毕业论文设计

摘要 语音识别主要是让机器听懂人说的话,即在各种情况下,准确地识别出语音的内容,从而根据其信息执行人的各种意图。语音识别技术既是国际竞争的一项重要技术,也是每一个国家经济发展不可缺少的重要技术支撑。本文基于语音信号产生的数学模型,从时域、频域出发对语音信号进行分析,论述了语音识别的基本理论。在此基础上讨论了语音识别的五种算法:动态时间伸缩算法(Dynamic Time Warping,DTW)、基于规则的人工智能方法、人工神经网络(Artificial Neural Network,ANN)方法、隐马尔可夫(Hidden Markov Model,HMM)方法、HMM和ANN的混合模型。重点是从理论上研究隐马尔可夫(HMM)模型算法,对经典的HMM模型算法进行改进。 语音识别算法有多种实现方案,本文采取的方法是利用Matlab强大的数学运算能力,实现孤立语音信号的识别。Matlab 是一款功能强大的数学软件,它附带大量的信号处理工具箱为信号分析研究,特别是文中主要探讨的声波分析研究带来极大便利。本文应用隐马尔科夫模型(HMM) 为识别算法,采用MFCC(MEL频率倒谱系数)为主要语音特征参数,建立了一个汉语数字语音识别系统,其中包括语音信号的预处理、特征参数的提取、识别模板的训练、识别匹配算法;同时,提出利用Matlab图形用户界面开发环境设计语音识别系统界面,设计简单,使用方便,系统界面友好。经过统计,识别效果明显达到了预期目标。 关键词:语音识别算法;HMM模型;Matlab;GUI ABSTRACT Speech Recognition is designed to allow machines to understand what people say,and accurately identify the contents of voice to execute the intent of people.Speech recognition technology is not only an important internationally competed technology,but also an indispensable foundational technology for the national economic development.Based on the mathematical model from the speech signal,this paper analyze audio signal from the time

matlab语音识别系统(源代码)18676

(威海)《智能仪器》课程设计 题目: MATLAB实现语音识别功能班级: 学号: 姓名: 同组人员: 任课教师: 完成时间:2012/11/3

目录 一、设计任务及要求 (1) 二、语音识别的简单介绍 语者识别的概念 (2) 特征参数的提取 (3) 用矢量量化聚类法生成码本 (3) 的说话人识别 (4) 三、算法程序分析 函数关系 (4) 代码说明 (5) 函数mfcc (5) 函数disteu (5) 函数vqlbg (6) 函数test (6) 函数testDB (7) 函数train (8) 函数melfb (8) 四、演示分析 (9) 五、心得体会 (11) 附:GUI程序代码 (12)

一、设计任务及要求 用MATLAB实现简单的语音识别功能; 具体设计要求如下: 用MATLAB实现简单的数字1~9的语音识别功能。 二、语音识别的简单介绍 基于VQ的说话人识别系统,矢量量化起着双重作用。在训练阶段,把每一个说话者所提取的特征参数进行分类,产生不同码字所组成的码本。在识别(匹配)阶段,我们用VQ方法计算平均失真测度(本系统在计算距离d时,采用欧氏距离测度),从而判断说话人是谁。 语音识别系统结构框图如图1所示。 图1 语音识别系统结构框图 语者识别的概念 语者识别就是根据说话人的语音信号来判别说话人的身份。语音是人的自然属性之一,由于说话人发音器官的生理差异以及后天形成的行为差异,每个人的语音都带有强烈的个人色彩,这就使得通过分析语音信号来识别说话人成为可能。用语音来鉴别说话人的身份有着许多独特的优点,如语音是人的固有的特征,不会丢失或遗忘;语音信号的采集方便,系统设备成本低;利用电话网络还可实现远程客户服务等。因此,近几年来,说话人识别越来越多的受到人们的重视。与其他生物识别技术如指纹识别、手形识别等相比较,说话人识别不仅使用方便,而且属于非接触性,容易被用户接受,并且在已有的各种生物特征识别技术中,是唯一可以用作远程验证的识别技术。因此,说话人识别的应用前景非常广泛:今天,说话人识别技术已经关系到多学科的研究领域,不同领域中的进步都对说话人识别的发展做出了贡献。说话人识别技术是集声学、语言学、计算机、信息处理和人工智能等诸多领域的一项综合技术,应用需求将十分广阔。在吃力语音信号的时候如何提取信号中关键的成分尤为重要。语音信号的特征参数的好坏直接导致了辨别的准确性。

基于matlab的语音识别系统

机电信息工程学院专业综合课程设计 系:信息与通信工程 专业:通信工程 班级:081班 设计题目:基于matlab的语音识别系统 学生姓名: 指导教师: 完成日期:2011年12月27日

一.设计任务及要求 1.1设计任务 作为智能计算机研究的主导方向和人机语音通信的关键技术,语音识别技术一直受到各国科学界的广泛关注。以语音识别开发出的产品应用领域非常广泛,有声控电话交换、语音拨号系统、信息网络查询、家庭服务、宾馆服务、旅行社服务系统、订票系统、声控智能玩具、医疗服务、银行服务、股票查询服务、计算机控制、工业控制、语音通信系统、军事监听、信息检索、应急服务、翻译系统等,几乎深入到社会的每个行业、每个方面,其应用和经济社会效益前景非常广泛。本次任务设计一个简单的语音识别系。 1.2设计要求 要求:使用matlab软件编写语音识别程序 二.算法方案选择 2.1设计方案 语音识别属于模式识别范畴,它与人的认知过程一样,其过程分为训练和识别两个阶段。在训练阶段,语音识别系统对输入的语音信号进行学习。学习结束后,把学习内容组成语音模型库存储起来;在识别阶段,根据当前输入的待识别语音信号,在语音模型库中查找出相应的词义或语义。 语音识别系统与常规模式识别系统一样包括特征提取、模式匹配、模型库等3个基本单元,它的基本结构如图1所示。 图1 语音识别系统基本结构图 本次设计主要是基于HMM模型(隐马尔可夫模型)。这是在20世纪80年代引入语音识别领域的一种语音识别算法。该算法通过对大量语音数据进行数据统计,建立识别词条的统计模型,然后从待识别语音信号中提取特征,与这些模

型进行匹配,通过比较匹配分数以获得识别结果。通过大量的语音,就能够获得一个稳健的统计模型,能够适应实际语音中的各种突发情况。并且,HMM算法具有良好的识别性能和抗噪性能。 2.2方案框图 图2 HMM语音识别系统 2.3隐马尔可夫模型 HMM过程是一个双重随机过程:一重用于描述非平稳信号的短时平稳段的统计特征(信号的瞬态特征);另一重随机过程描述了每个短时平稳段如何转变到下一个短时平稳段,即短时统计特征的动态特性(隐含在观察序列中)。人的言语过程本质上也是一个双重随机过程,语音信号本身是一个可观测的时变列。可见,HMM合理地模仿了这一过程,是一种较为理想的语音信号模型。其初始状态概率向量π,状态转移概率矩阵向量A,以及概率输出向量B一起构成了HMM的3个特征参量。HMM 模型通常表示成λ={π,A,B}。 2.4HMM模型的三个基本问题 HMM模型的核心问题就是解决以下三个基本问题: (1)识别问题:在给定的观测序列O和模型λ=(A,B,π)的条件下,如何有效地计算λ产生观测序列O的条件概率P(O︱λ)最大。常用的算法是前后向算法,它可以使其计算量降低到N2T次运算。 (2)最佳状态链的确定:如何选择一个最佳状态序列Q=q1q2…qT,来解释观察序列O。常用的算法是Viterbi算法。 (3)模型参数优化问题:如何调整模型参数λ=(A,B,π),使P(O︱λ)最大:这是三个问题中最难的一个,因为没有解析法可用来求解最大似然模型,所以只能使用迭代法(如Baum-Welch)或使用最佳梯度法。 第一个问题是评估问题,即已知模型λ=(A,B,π)和一个观测序列O,如何计算由该模型λ产生出该观测序列O的概率,问题1的求解能够选择出与给定的观测序列最匹配的HMM模型。 第二个问题力图揭露模型中隐藏着的部分,即找出“正确的”状态序列,这是一个典型的估计问题。

孤立词语音识别程序文件

信息处理仿真实验语音处理部分 一、实验目的 按所学相关语音处理的知识,自己设计一个孤立词语音识别程序,分析所设计系统的特性。熟悉不同模块间如何进行有效的组合,以及模块的设计,重点掌握特征参数的提取和模式识别方法,并对不同的特征参数提取方法和模式匹配方法有大概的了解,知道其不同的优缺点。 二、实验容 1、熟悉预处理、特征参数提取、模式匹配三个模块的原理,并设计这三个模块的matlab子程序。 2、设计主程序,将上述3个模块合理组合构成一个系统,训练模板并测试。 三、实验原理及设计步骤 1、孤立词语音识别系统:先用端点检测将语音中有用的语音部分提取出来 (即将头部和尾部的静音部分除掉),然后提取语音信号的Mel尺度倒谱参数(MFCC),进行动态归整(DTW算法)后与模板库里面的标准语音作比较,具体流程如下: 图3.1孤立词语音识别系统 2、各模块解析 ⑴预处理:包括反混叠失真滤波器、预加重器、端点检测和噪声滤波器。 这里将预加重器和噪声滤波器放在下一个模块里,所以预处理主要进行端点检测以捕捉到数据中的语音信息。 端点检测采用双门限法来检测端点。同时,利用过零率检测清音,用短时能量检测浊音,两者配合。整个语音信号的端点检测可以分为四段:静音、过渡段、语音段、结束。程序中使用一个变量status来表示当前所处的状态。 在静音段,如果能量或过零率超越了低门限,就应该开始标记起始点,进 入过渡段。 在过渡段中,由于参数的数值比较小,不能确信是否处于真正的语音段,因此只要 两个参数的数值都回落到低门限以下,就将当前状态恢复到静音状态。 而如果在过渡段中两个参数中任意一个超过了高门限,就可以确信进入语 音段了。

机器人语音交互系统的设计

龙源期刊网 https://www.doczj.com/doc/5e6884964.html, 机器人语音交互系统的设计 作者:赵邦宇 来源:《电子技术与软件工程》2018年第15期 摘要 随着科学技术的发展和计算机研究力度的不断增大,人机语言通信技术成为目前最受关注的一项关键技术,随着语音技术研究力度的增强和快速发展,其对人们的日常生活还有计算机发展都产生了一定的影响作用,同时因为语音技术而研发出的各种产品也广泛应用到各个领域当中,例如军事监控、电话交换、信息网络查询、语音拨号系统、语音通信系统、家庭服务以及信息检索等等,可以说已经渗入到每一个行业当中。该项技术也可以很好地促进人机交互之间的自然友好关系,是未来人机交互领域的主要发展方向。 【关键词】机器人语音交互系统研究设计 1 智能机器人语音交互系统设计 我国当前对机器人语音交互系统的主要研究内容集中在对单独使用电脑相关硬件或者软件的语音交互载体,目前已经实现了语音交互的有效控制,但是在实际应用过程中仍然还是存在一定的局限性,只是能够满足已经下载好的几个系统功能,想要实现进一步扩展就存在一定的障碍。以下将对智能机器人语音控制系统最为例子对离线语音的识别以及云在线语音识别两项内容进行一定的分析和研究。 在计算机各种类型当中,RaspberryPI是一种新型的种类,其具有很好的音频和视频处理 功能,这种类型的计算机配备了ARM的微型电脑主板,SD/MicroSD卡内存硬盘,4.14个USB接口,802.11nWi-Fi,一个10/100以太网接口,蓝牙还有网线和鼠标等,并且实现了HDMI高清视频输出接口和视频模拟信号的电视输出接口的同步拥有。和其他的单片机相比较而言,其具有一套非常完整的操作系统,而且自身携带有接口,可以利用相应的程序编程来实现对各种软件的有效应用。利用联网就可以实现对云开放识别技术和简单开关的智能语音交互,进一步实现对语音交互各种软件和硬件的有效控制,同时还有效实现了在线和离线的有效结合。 在具体操作过程中主要分为以下几个步骤: (1)利用互联网语音识别、离线语音识别以及云开放语音识别等多个接口的有效连接对外界的语音信息还有一些比较简单的动作信息进行有效的采集,并将其传送到主板上进行一定的处理; (2)经过处理之后的信息输出之后,利用简单的开关和扬声器对这些信息做出一定的反馈和互动,然后再次利用开关设备和联网连接实现对无线开关的有效控制。2离线语音识别

语音识别综述

山西大学研究生学位课程论文(2014 ---- 2015 学年第 2 学期) 学院(中心、所):计算机与信息技术学院 专业名称:计算机应用技术 课程名称:自然语言处理技术 论文题目:语音识别综述 授课教师(职称): 研究生姓名: 年级: 学号: 成绩: 评阅日期: 山西大学研究生学院 2015年 6 月2日

语音识别综述 摘要随着大数据、云时代的到来,我们正朝着智能化和自动化的信息社会迈进,作为人机交互的关键技术,语音识别在五十多年来不仅在学术领域有了很大的发展,在实际生活中也得到了越来越多的应用。本文主要介绍了语音识别技术的发展历程,国内外研究现状,具体阐述语音识别的概念,基本原理、方法,以及目前使用的关键技术HMM、神经网络等,具体实际应用,以及当前面临的困境与未来的研究趋势。 关键词语音识别;隐马尔科夫模型;神经网络;中文信息处理 1.引言 语言是人类相互交流最常用、有效的和方便的通信方式,自从计算机诞生以来,让计算机能听懂人类的语言一直是我们的梦想,随着大数据、云时代的到来,信息社会正朝着智能化和自动化推进,我们越来越迫切希望能够摆脱键盘等硬件的束缚,取而代之的是更加易用的、自然的、人性化的语音输入。语音识别是以语音为研究对象,通过对语音信号处理和模式识别让机器自动识别和理解人类口述的语言。 2.语音识别技术的发展历史及现状 2.1语音识别发展历史 语音识别的研究工作起源与上世纪50年代,当时AT&T Bell实验室实现了第一个可识别十个英文数字的语音识别系统——Audry系统。1959年,J.W.Rorgie和C.D.Forgie采用数字计算机识别英文元音及孤立字,开始了计算机语音识别的研究工作。 60年代,计算机应用推动了语音识别的发展。这时期的重要成果是提出了动态规划(DP)和线性预测分析技术(LP),其中后者较好的解决了语音信号产生模型的问题,对后来语音识别的发展产生了深远的影响。 70年代,LP技术得到了进一步的发展,动态时间归正技术(DTW)基本成熟,特别是矢量量化(VQ)和隐马尔科夫(HMM)理论的提出,并且实现了基于线性预测倒谱和DTW技术的特定人孤立语音识别系统。 80年代,实验室语音识别研究产生了巨大的突破,一方面各种连接词语音识别算法被开发,比如多级动态规划语音识别算法;另一方面语音识别算法从模板匹配技术转向基于统计模型技术,研究从微观转向宏观,从统计的角度来建立最佳的语音识别系统。隐马尔科夫模型(HMM)就是其典型代表,能够很好的描述语音信号的时变性和平稳性,使大词汇量连

(完整版)基于单片机的语音识别系统好毕业设计论文

基于单片机的语音识别系统

摘要 近几年来,智能化和自动化技术在玩具制造领域中越来越被关注。本文介绍一种智能化小车控制系统的设计——语音控制小车。语音控制小车是基于SPCE061A的代表性兴趣产品,它配合61板推出,综合应用了SPCE061A的众多资源,小车采用语音识别技术,可通过语音命令对其行驶状态进行控制。首先介绍了SPCE061A的主要性能及其引脚的功能;接着完成了电源电路、复位电路、键盘电路、音频输入电路,音频输出电路和无线控制电路等硬件功能模块的设计。软件设计模块能实现智能小车的前进、后退、转向、停止、避障、表演动作以及循线等功能。测试表明,在环境背景噪音不太大,控制者的发音清晰的前提下,语音控制小车的语音识别系统能对特定的语音指令做出智能反应,做出预想中的有限的动作 关键词:spec061a 语音识别驱动电路声控小车智能反应

Abstract In recent years, Intelligent and automation technology in the toy manufacture paid more and more attention.Introduce an intelligent vehicle control system design. SPCE061A program the system to single-chip, based on implementation of the car's voice control, This paper introduces the and implementation. The SPCE061A's main characters and pin function are introduced firstly. Completed the power circuit, reset circuit, keyboard circuitry, audio input circuits, audio output circuit and control circuit of wireless of function modules. Software design module can achieve smart car forward, backward, turn, stop, obstacle avoidance, performing actions, as well as on-line functions. Test showed that the background noise in the environment is not too great, control persons under the premise of clear pronunciation, voice control car speech recognition systems for specific voice commands to make intelligent reaction, limited to the desired action. Keywords: spec061a 、voice recogniton、Driving circuit、Voice control dolly、intelirent response

Microsoft Speech SDK孤立词语音识别

基于Microsoft Speech SDK实现用户孤立词识别的过程如下: 1、初始化COM端口:在CWinApp的子类中,调用CoInitializeEx函数进行COM 初始化:::CoInitializeEx(NULL,COINIT_APARTMENTTHREADED); 2、创建识别引擎:微软Speech SDK 5.1 支持两种模式的:共享(Share)和独享(InProc)。一般情况下可以使用共享型,大的服务型程序使用InProc。如下:hr = m_cpRecognizer.CoCreateInstance(CLSID_SpSharedRecognizer);//Share hr = m_cpRecognizer.CoCreateInstance(CLSID_SpInprocRecognizer);//InProc 如果是Share型,直接到步骤3;如果是InProc型,必须使用ISpRecognizer::SetInput 设置输入:CComPtr cpAudioToken; hr = SpGetDefaultTokenFromCategoryId(SPCAT_AUDIOIN, &cpAudioToken); if (SUCCEEDED(hr)) { hr = m_cpRecognizer->SetInput(cpAudioToken, TRUE);} 或者:CComPtr cpAudio; hr = SpCreateDefaultObjectFromCategoryId(SPCAT_AUDIOIN, &cpAudio); hr = m_cpRecoEngine->SetInput(cpAudio, TRUE); 3、创建识别上下文接口:调用ISpRecognizer::CreateRecoContext 创建识别上下文接口:hr = m_cpRecoEngine->CreateRecoContext( &m_cpRecoCtxt ); 4、设置识别消息:调用SetNotifyWindowMessage 告诉Windows哪个是我们的识别消息,需要进行处理: hr = m_cpRecoCtxt->SetNotifyWindowMessage(m_hWnd, WM_RECOEVENT, 0, 0); 5、设置事件:最重要的事件是“SPEI_RECOGNITION”: const ULONGLONG ullInterest = SPFEI(SPEI_SOUND_START) | SPFEI(SPEI_SOUND_END) | SPFEI(SPEI_RECOGNITION) ; hr = m_cpRecoCtxt->SetInterest(ullInterest, ullInterest); 6、创建语法规则:语法规则分为两种,一种是听说式(dictation),一种是命令式(command and control---C&C)。首先利用ISpRecoContext::CreateGrammar 创建语法对象,然后加载不同的语法规则: //dictation hr = m_cpRecoCtxt->CreateGrammar( GIDDICTATION, &m_cpDictationGrammar ); if (SUCCEEDED(hr)) { hr = m_cpDictationGrammar->LoadDictation(NULL, SPLO_STATIC); }

相关主题
文本预览
相关文档 最新文档