基于改进稀疏线性预测的时延估计算法
- 格式:pdf
- 大小:866.15 KB
- 文档页数:3
高效稀疏信号恢复算法研究Abstract:稀疏信号恢复是处理信号处理和机器学习领域中的一个重要问题。
在实际应用中,往往需要从有限的观测数据中恢复出或估计出一个信号的稀疏表示。
本文将介绍一些高效的稀疏信号恢复算法及其研究进展。
1. 引言在信号处理和机器学习中,稀疏信号恢复是一个经典的问题。
稀疏信号指的是具有很少非零分量的信号。
在实际应用中,信号往往可以通过较少的基函数表示。
我们的目标是在给定有限观测数据的情况下,从中恢复出信号的稀疏表示。
2. 相关算法及方法2.1. L1 范数最小化算法L1 范数最小化算法是最常用的求解稀疏信号恢复问题的方法之一。
该方法通过最小化信号的L1 范数,将问题转化为一个凸优化问题。
然后可以使用一些高效的优化算法,如迭代软阈值算法、迭代重加权算法等来求解。
2.2. 正则化方法正则化方法在稀疏信号恢复中也被广泛应用。
通过添加一个正则化项,可以引入信号的稀疏性先验信息,从而提高恢复精度。
常见的正则化项包括L1 范数、L2 范数、Total Variation 等,可以根据不同情况选择合适的正则化项。
2.3. 基于字典的方法基于字典的方法是一种将信号表示为基函数的线性组合的方法。
字典可以通过训练数据来学习得到,也可以使用已有的字典。
通过求解一个稀疏优化问题,可以得到信号的稀疏表示。
常用的字典包括小波字典、傅里叶字典等。
3. 高效稀疏信号恢复算法3.1. 压缩感知算法压缩感知算法是一种通过少量采样数据来恢复信号的稀疏表示的方法。
该算法利用信号的稀疏性,通过选择合适的采样矩阵进行采样,然后利用压缩感知理论恢复信号的稀疏表示。
压缩感知算法具有较好的恢复性能和较低的计算复杂度。
3.2. 基于局部化的算法基于局部化的算法是一种通过选择合适的稀疏基函数来提高稀疏信号恢复性能的方法。
该方法通过引入空间局部性或频域局部性,将信号表示为基函数的线性组合,从而提高稀疏表示的准确性和稳定性。
3.3. 基于机器学习的算法近年来,随着机器学习的快速发展,基于机器学习的稀疏信号恢复算法也得到了广泛研究和应用。
无线通信系统中的稀疏信号恢复算法研究及性能评估概述无线通信系统在现代信息传输中起着至关重要的作用。
然而,随着对高质量和高速数据传输需求的不断增长,传统的无线通信系统面临着严峻的挑战。
信号传输中的频谱稀疏性是一种可以充分利用的特性。
稀疏信号恢复算法的研究能够有效提高信号传输的效率和可靠性。
本文将重点介绍无线通信系统中的稀疏信号恢复算法研究及性能评估。
一、稀疏信号恢复算法的原理稀疏信号恢复算法旨在通过利用频谱稀疏性,准确恢复原始信号。
在无线通信系统中,信号通常在时域上并不是稀疏的,但在频域上却具有一定的稀疏性。
稀疏信号恢复算法通过一系列的数学求解方法,将原始信号从测量值中恢复出来。
常见的稀疏信号恢复算法有基于压缩感知的算法、基于最小二乘法的算法以及基于迭代阈值去噪的算法等。
这些算法通过最小化恢复信号与观测信号之间的差异,以实现稀疏信号的恢复。
二、无线通信系统中的应用稀疏信号恢复算法在无线通信系统中具有广泛的应用。
首先,稀疏信号恢复算法可以用于提高无线信号的传输速率。
通过将信号转换到稀疏表示域,可以有效地降低传输所需的带宽,从而实现更高的数据传输速率。
其次,稀疏信号恢复算法也可以用于提高信号的可靠性和鲁棒性。
通过利用稀疏信号的结构特性,可以对信号进行更准确的恢复,从而提高系统对信号噪声、干扰等干扰的容忍度。
此外,稀疏信号恢复算法还可以应用于无线信号的压缩和降噪等领域。
三、性能评估方法为了评估无线通信系统中的稀疏信号恢复算法性能,需要选择合适的评估指标。
常用的评估指标包括均方误差(Mean Square Error,MSE)、峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和恢复成功率(Successful Recovery Rate,SRR)等。
其中,均方误差是一种衡量恢复信号与原始信号之间差异的指标,峰值信噪比则是一种衡量信号质量的指标。
恢复成功率是一种衡量信号恢复算法成功恢复原始信号的能力的指标。
基于CS算法改进ELM的时间序列预测赵坤;覃锡忠;贾振红;王哲辉;牛红梅【期刊名称】《计算机工程与设计》【年(卷),期】2018(039)008【摘要】为解决现有时间序列预测模型稳定性差、训练时间长、预测精度低等问题,提出一种基于布谷鸟搜索(CS)算法改进的极限学习机(ELM)的时间序列预测模型.利用CS算法对ELM模型进行改进,自适应调节ELM的隐含层节点数,选取最优的一组输入权值和阈值,提高预测精度和稳定性,减少训练时间.实验结果表明,在单步预测方面,CS-ELM预测精度高,用时少,在稳定性方面达到了很好的效果,将CS-ELM 应用到话务量多步预测中,达到了很好的预测精度.【总页数】5页(P2649-2653)【作者】赵坤;覃锡忠;贾振红;王哲辉;牛红梅【作者单位】新疆大学信息科学与工程学院,新疆乌鲁木齐830000;新疆大学信息科学与工程学院,新疆乌鲁木齐830000;新疆大学信息科学与工程学院,新疆乌鲁木齐830000;新疆移动公司监控中心,新疆乌鲁木齐830000;新疆移动公司监控中心,新疆乌鲁木齐830000【正文语种】中文【中图分类】TP183【相关文献】1.基于时间序列与GWO-ELM模型的滑坡位移预测 [J], 廖康;吴益平;李麟玮;苗发盛;薛阳2.基于粗糙集-混沌时间序列Elman神经网络的短期用电量预测 [J], 吴佳懋;李艳;符一健3.基于ELM改进层集成架构的时间序列预测 [J], 樊树铭;覃锡忠;贾振红;牛红梅;王哲辉4.基于时间序列延迟相关算法改进LSTM的臭氧浓度预测模型 [J], 铁治欣; 程晓宁; 林德守; 丁成富5.基于Elman神经网络的短期风速时间序列预测及软件开发 [J], 郭明星;黄阮明;边晓燕;徐丽;宋天立;戚宇辰因版权原因,仅展示原文概要,查看原文内容请购买。
广义互相关时延估计摘要:本文提出了一种基于广义互相关的时延估计方法,适用于各种信号处理领域。
该方法能够有效地估计出信号之间的时延,并且具有较高的精度和稳定性。
文章首先介绍了传统互相关算法的局限性,然后详细阐述了我们的新方法的原理、步骤和应用场景。
最后,通过实验验证了该方法的可行性和优越性。
一、引言在信号处理领域中,时延估计是至关重要的一项任务。
传统的互相关算法通常用于检测两个信号之间的相关性,但其在处理复杂信号或多维数据时存在一定的局限性。
特别是在处理非平稳和非线性的信号时,传统互相关算法可能无法准确估计信号间的时延。
因此,寻求一种更有效的时延估计方法是当前研究的热点之一。
二、方法我们提出的广义互相关时延估计算法主要包括以下几个步骤:选择合适的核函数、构建广义互相关矩阵、利用稀疏表示进行特征提取以及迭代优化时延值。
具体来说,我们将输入信号对作为输入,通过核函数计算它们之间的相似度,进而得到广义互相关矩阵。
接着,我们使用稀疏表示将这个矩阵分解为几个基本模式,并通过优化算法寻找理想的时延值。
三、实现与应用在实际应用中,我们的方法可以应用于各种信号处理领域,如通信、语音识别、生物医学工程等。
对于不同的应用场景,我们需要根据具体情况调整参数和方法细节。
特别地,我们发现该方法在处理含有噪声的数据时表现出了较好的鲁棒性。
此外,与其他同类方法相比,我们的方法在精度和稳定性方面均表现出优势。
四、实验结果与分析为了验证我们方法的可行性和优越性,我们在多种信号数据集上进行实验。
实验结果表明,我们的方法在时延估计任务中表现出了较高的精度和稳定性。
1. 实验设置我们使用了不同类型的信号数据进行实验,包括平稳信号、非平稳信号以及含有噪声的信号。
同时,我们还比较了不同算法的性能,如传统互相关算法、基于小波变换的方法等。
实验环境为计算机实验室,硬件配置为Intel Core i7-9700K **********,8GB RAM。
基于数据场的改进LOF算法MENG Haidong;SUN Xinjun;SONG Yuchen【摘要】LOF(Local Outlier Factor)是一种经典基于密度的局部离群点检测算法,为提高算法的精确度,以便更精准挖掘出局部离群点,在LOF算法的基础上,提出了一种基于数据场的改进LOF离群点检测算法.通过对数据集每一维的属性值应用数据场理论,计算势值,进而引入平均势差的概念,针对每一维度中大于平均势差的任意两点在计算距离时加入一个权值,从而提高离群点检测的精确度,实验结果表明该算法是可行的,并且拥有更高的精确度.【期刊名称】《计算机工程与应用》【年(卷),期】2019(055)003【总页数】5页(P154-158)【关键词】数据挖掘;局部可达密度;数据场;平均势差;局部离群因子【作者】MENG Haidong;SUN Xinjun;SONG Yuchen【作者单位】【正文语种】中文【中图分类】TP311;TP181 引言在数据挖掘领域中,离群点检测是一个非常重要的研究方向,关注的数据对象是不同于正常情况的异常数据,这些数据不同于预期对象,只在数据集中占有极其稀少的比重。
离群点检测最早的定义由Hawkins提出:“异常是在数据集中与众不同的数据,使人们怀疑这些数据并非随机产生的,而是产生于完全不同的机制”。
在实际应用中,离群点检测已经在多个领域中取得了成功,如欺诈检测、公共安全、图像处理、工业损毁检测等[1]。
离群点检测大致可以分为以下几类[2-12]:基于统计的方法、基于距离的方法、基于密度的方法、基于聚类的方法、基于分类的方法。
文献[5]提出了一种基于多重聚类的方法;文献[6]提出了基于K-means的数据流方法;文献[7]提出了基于粗约简和网格的方法;文献[8]提出了基于混合式聚类算法的方法。
LOF(Local Outlier Factor)算法[9-12]是一种基于密度的方法,该方法将一个表征数据离群程度的局部离群因子赋予每个数据对象,根据局部离群因子的数值来确定离群点。
基于实时计算时延扩展的LMMSE信道估计算法李超鹏;卜智勇【摘要】为了进一步提高LMMSE信道估计算法在工程应用中的实用性和性能,提出了一种实时计算时延扩展的LMMSE的信道估计算法,并仿真完成了对其性能的验证.该算法在信号接收端,通过实时计算时延扩展代替取固定值,得到更准确的信道自相关矩阵RHH.同时使用解码产生出的软信息,通过反馈更新LMMSE信道估计HLMMSE表达式中的LS信道估计HLS,再次计算响应,从而综合提高对信道频率响应的估计准确度,还原发送信息.仿真结果表明,该算法在不显著增加计算复杂度的基础上,误码率比的多种固定值时延扩展的LMMSE算法估计都要小,达到了的提高实用性和性能的目的.【期刊名称】《电子设计工程》【年(卷),期】2017(025)001【总页数】4页(P82-85)【关键词】信道估计;实时计算;时延扩展;反馈;LMMSE;误码率【作者】李超鹏;卜智勇【作者单位】中国科学院上海微系统与信息技术研究所上海200050;上海科技大学上海200031【正文语种】中文【中图分类】TN911近年来通信产业的快速发展,基于LTE的4G通信技术的逐步商用,极大的满足了人们的生活生产需求。
同时人们的通信需求也在不断扩大,通信场景也愈发复杂。
密集的城市楼宇间,快速移动车辆,地形复杂的野外等等这些场景也要保障通信质量,提高通信速率。
新的形势下,关于LTE技术的完善提高也仍然是好的研究课题。
作为LTE最关键的技术之一,信道估计技术,在这样的背景下仍有十分重要的研究意义。
基于导频的信道估计是LTE系统最常用的估计方法。
该方法在发送端发出的数据流中插入已知导频信号,在接收端利用收到的信号和导频信号估计出导频处的信道冲击响应。
然后通过内插的方法得到整个信道的估计值。
在导频辅助的信道估计中LMMSE以其性能良好,复杂度低而被广泛使用。
文中先分析了LMMSE算法的原理,针对LMMSE估计算法的推导公式,提出在不显著增加运算复杂度的基础上,通过实时计算时延扩展和软信息反馈更新再计算,再使LMMSE的性能进一步的提高。
稀疏恢复算法研究及其在doa估计中的应用稀疏恢复算法研究及其在DOA估计中的应用如下所示:摘要:稀疏信号恢复是近年来信号处理领域的一个研究热点。
在无线通信、阵列信号处理等领域,稀疏信号恢复算法具有重要的应用价值。
本文首先介绍了稀疏信号恢复的概念及原理,然后重点阐述了稀疏恢复算法的研究进展,最后探讨了稀疏恢复算法在DOA估计中的应用及发展前景。
关键词:稀疏信号恢复;稀疏恢复算法;DOA估计一、稀疏信号恢复的概念及原理稀疏信号恢复是指在观测数据中,信号具有稀疏特性的情况下,恢复出原始信号的一种方法。
稀疏信号恢复的基本原理是在观测数据中寻找最接近原始信号的稀疏信号,通常采用最优化方法来实现。
二、稀疏恢复算法的研究进展稀疏恢复算法主要包括以下几类:(1) 基于L1范数的方法:L1范数方法主要通过最小化原始信号的L1范数来实现信号恢复,例如正则化最小二乘(L1-LS)算法和压缩感知(CS)算法。
(2) 基于Lp范数的方法:Lp范数方法在L1范数的基础上,通过引入Lp范数正则化项来约束信号的稀疏程度,例如Lp-LS算法。
(3) 基于非局部均值的方法:非局部均值方法通过在信号空间中寻找相似的信号块,实现信号的稀疏恢复,例如非局部均值(NM)算法和基于图的稀疏恢复(GSR)算法。
(4) 基于矩阵分解的方法:矩阵分解方法将原始信号视为一个矩阵,通过分解矩阵来恢复稀疏信号,例如矩阵分解(MF)算法和稀疏矩阵分解(SMD)算法。
三、稀疏恢复算法在DOA估计中的应用DOA估计(Direction of Arrival)是指在阵列信号处理中,估计出信号的到达方向。
稀疏恢复算法在DOA估计中的应用主要体现在以下几个方面:(1) 基于稀疏信号模型的DOA估计:在DOA估计中,将阵列信号模型视为一个稀疏信号,采用稀疏恢复算法来估计信号的到达方向。
(2) 结合阵列信号处理的DOA估计:在阵列信号处理中,将稀疏恢复算法与DOA估计方法相结合,提高DOA估计的准确性和鲁棒性。
基于频域LMS算法的稀疏信道估计傅剑斌;彭华;董政【期刊名称】《计算机工程》【年(卷),期】2013(000)012【摘要】传统自适应滤波方法无法直接、有效地对稀疏信道进行估计。
为此,提出一种基于频域的稀疏信道估计方法。
为削弱或消除信道的稀疏性质在其估计过程中带来的影响,引入频域最小均方(LMS)算法。
频域LMS算法通过FFT变换实现稀疏信道的非稀疏化,从而使其可以对稀疏信道直接估计。
仿真实验结果表明,频域 LMS算法具有较好的收敛性能,与频域 RLS算法相比,其收敛速度相当,但其收敛后的均方误差提高近10 dB,可较好地完成对稀疏信道的估计,同时在算法的实现过程中通过使用重叠保留法能较大程度地减少估计的运算量。
%As the traditional adaptive filtering algorithm can not effectively estimate the channel directly, a new frequency domain algorithm is proposed. With Frequency Domain Least Mean Squares(FD-LMS), it weakens the effect of the sparse character of the channel. It can change the sparse channel into nonsparsity by Fast Fourier Transformation(FFT), and the adaptive filtering algorithm estimates the channel directly. Simulation experimental results show that FD-LMS possesses excellent character of convergence, its convergence rate is almost equal to frequency domain RLS algorithm, however, its Mean Square Error(MSE) improvesby nearly 10 dB. Therefore, FD-LMS can estimate the sparse channel well, and the calculation for estimating the channel can also be reduced with overlap-save method.【总页数】5页(P49-53)【作者】傅剑斌;彭华;董政【作者单位】解放军信息工程大学信息系统工程学院,郑州 450002;解放军信息工程大学信息系统工程学院,郑州 450002;解放军信息工程大学信息系统工程学院,郑州 450002【正文语种】中文【中图分类】TP391【相关文献】1.一种基于改进LMS算法的MIMO-OFDM信道估计方法 [J], 陈国军;胡捍英;周游2.基于稀疏度自适应算法的MIMO-OFDM稀疏信道估计研究 [J], 任晓奎;孙兴海;靳琳3.基于LMS/SOLMS算法的时变多径水声信道估计方法 [J], 张刚强;童峰4.基于最小均方稀疏信息辅助的稀疏信道估计 [J], 倪煜淮;吴姚振;毛一凡;乔正明5.基于频域稀疏压缩感知的星载SAR稀疏重航过3维成像 [J], 田鹤;于海锋;朱宇;刘磊;张润宁;袁莉;李道京;周凯因版权原因,仅展示原文概要,查看原文内容请购买。
基于广义二次相关的稀疏傅里叶变换时延估计算法张宇;严天峰【摘要】针对无源时差定位中的稀疏傅里叶变换时延估计算法在低信噪比条件下的抗噪性差和估值精度低等问题,提出了广义二次相关稀疏傅里叶时延估计算法.算法在对信号进行稀疏傅里叶变换的基础上,融合利用最小二乘拟合改进的广义二次相关算法,在对信号进行快速处理的同时抑制了噪声的干扰,使得时延估计算法的性能得到提高.仿真实验以及对实测数据的验证均表明改进算法具有较好的抗噪性以及时延估值精度.【期刊名称】《电光与控制》【年(卷),期】2019(026)003【总页数】5页(P54-58)【关键词】稀疏傅里叶变换;广义二次相关;最小二乘拟合;时延估计;估值精度【作者】张宇;严天峰【作者单位】兰州交通大学电子与信息工程学院,兰州 730070;甘肃省无线电监测及定位行业技术中心,兰州 730070;兰州交通大学电子与信息工程学院,兰州730070;甘肃省无线电监测及定位行业技术中心,兰州 730070;甘肃省高精度北斗定位技术工程实验室,兰州 730070【正文语种】中文【中图分类】TN980 引言无源时差定位技术由于其定位稳定性高、实用性强等优点成为近年来热门的研究领域[1],在实际信号源定位(如电子对抗)中具有很明显的抗干扰特性 [2]。
到达时间差(Time Difference of Arrival,TDOA)定位技术是通过检测同一个信号抵达多个监测站的时间差,换算成恒定的距离差构造双曲线,采用双曲线法定位 [3-5],其中互相关算法因可实现性强、稳定性高的特点被广泛使用。
文献[6]提出的广义二次互相关时延估计(Generalized Second Cross Correlation,GSCC)算法融合广义互相关算法和二次相关时延估计算法,提高了时延估算精度与抗噪声性能,但在更低的信噪比条件下仍会出现较大的误差。
低信噪比条件下相关峰附近出现的非线性波动,采用最小二乘拟合能够提升数据曲线的平滑稳定性。
154传感器与微系统(Transducer and Microsystem Technologies)2019年第38卷第11期DOI : 10.13873/J. 1000-9787 (2019) 11-0154-03基于改进稀疏线性预测的时延估计算法贺 良,郭海燕,何宏森,王学渊(西南科技大学信息工程学院,四川绵阳621010)摘要:针对噪声与混响环境下,基于稀疏线性预测的时延估计算法性能下降的问题,提出一种改进的线性预测模型。
为了获得麦克风信号的有效预滤波,将语音幅度谱的稀疏性和线性预测向量的稀疏性同时引入最小二乘准则,以此构建凸约束线性预测模型;运用Split-Bregman 迭代方法对模型进行求解;使用预测误差信号建立基于改进L2/L1范数稀疏线性预测预白化的时延估计器。
实验结果表明:与GCC-PHAT 和12/L1范数稀疏线性预测算法相比,所提算法具有更好的吋延估计性能。
关键词:时延估计;线性预测;预白化;L2/L1范数;Split-Bregman 迭代中图分类号:TN912 文献标识码:A 文章编号:1000-9787(2019)11-0154-03Time delay estimation algorithm based on improvedsparse linear predictionHE Liang , GUO Haiyan , HE Hongsen , WANG Xueyuan(School of Information Engineering ,Southwest University of Science and Technology ,Mianyang 621010,China)Abstract : Aiming at the problem that the performance of lime delay estimation algorithm based on sparse linearprediction is degraded under the environment with noise and reverberation , an improved linear prediction model is proposed. Tn order to obtain the effective pre-filtering of the microphone signal , the sparseness of the speechamplitude spectrum and the sparsity of the linear prediction vector are simultaneously introduced into the least squares criterion to construct the convex constrained linear prediction model ・ Then the split-Bregman iterativemethod is used to solve the model ・ Finally , the signal of prediction error is used to establish a time delay estimatorwhich is based on the improved -norm sparse linear prediction. The experimental results show that comparedwith the algorithms of GCC-PHAT and L 2/L j -norm sparse linear prediction , the proposed algorithm has better performance of time delay estimation ・Keywords : time delay estimation ; linear prediction ; pre ・whitening ; I^/Li-nonn ; Splil-Bregman iteration0引言阵列麦克风信号的时延估计(TDE)是许多声源定位算法的第一步,也是语音增强的第一步,在室内声学环境声源定位和讲话者跟踪识别中起着重要作用。
广义互相关(GCC)皿是迄今为止应用最为广泛的TDE 技术,该方法依赖于信号的频谱特性,通过最大化互相关函数得到的时延值作为时延估计值。
然而,当混响或噪声很强时,可以发现GCC 的TDE 性能显著恶化。
由于接收信号的频谱特性是通过房间中的多径传播来修改的,因此,可以通过强调与频率相关的权重来使GCC 功能更加稳健。
基于这种思想,相位变换广义互相关(GCC-PHAT)⑵通过PHAT 加权使幅度谱严格预白化,在一定程度上提高了 TDE 对噪声和混响的鲁棒性。
就预白化而言,线性预测作为一项重要的技术已经应用于TDE 算法⑶。
传统线性预测器的配置,采用长期预测器和短期预测器级联的方式来实现,得到的预测系数向量非常稀疏⑷。
然而,当语音信号被噪声污染时,这种稀疏 性降低甚至不存在,因而导致线性预测器的性能降低。
针对这一问题,一种可行的方案是,将线性预测器系数向量的稀疏性用于构造I2/L1范数优化模型,进而预白化用于时间延迟估计的麦克风信号;结果表明,I2/L1-LP 预白化的 TDE 算法对于噪声和混响的免疫性得到有效提高⑸。
基于稀疏性约束的原理,本文提出一种基于改进⑵L1 范数线性预测(improved L2/L1 -norm linear prediction , Im-L2/Ll-LP )预白化的时延估计器。
1 Im-L2/Ll-LP 预白化的 TDE1 • 1 优化模型假设在远场有一个宽带声源辐射平面波,利用麦克风收稿日期=2019-07-24第11期贺良,等:基于改进稀疏线性预测的时延估计算法155阵列来拾取声音信号。
这里采用线性预测器预滤波麦克风信号,为此,可以利用通道过去的样本来预测其当前样本⑸,即x(zz)=X(zi)a+e(n)(1)式中误差信号向量e(n)可用于定义最小化的代价函数,解这个函数就能找到预测器系数向量a的最佳估计。
在文献[5]中,利用系数向量的稀疏性构造I2/L1-LP预白化的时延迟估计器,获得了对噪声的鲁棒性。
然而,在反射主导环境中,这种稀疏性减弱甚至消失,导致预测器对麦克风信号的白化能力变弱。
众所周知,纯净语音信号的短时傅立叶变换(STFT)的幅度谱0X5)|是稀疏的。
经验观察表明,在混响主导环境中麦克风信号的STFT的幅度谱也是稀疏的,如图1(a)所示;并且,麦克风信号的短时变化趋势(反映其低频成分)通常可以预测。
因此,预测信号矢量X(n)a的幅度谱\FX(n)a\通常具有稀疏性。
为了增强TDE对混响的鲁棒性,在预测信号X(n)a的幅度谱上引入对最小二乘模型的稀疏性约束。
为此,提出以下凸约束线性预测模型minj At||a||}+A Z||FX(n)a||j+a*||X(n)a—x5)||餌(2)式中II■11>和II•II2分别为L1范数和12范数,儿> 0和入2〉0为正则化参数。
实验结果表明,语音幅度谱稀疏性的引入增强了预测器的预白化能力(比较图1(c)和图1(b)可以看出)。
值得注意的是,当入2=0时,优化模型(2)与文献[5]模型一致;当入1=0时,优化模型(2)则退化为Lasso模型。
3000.250.500.75归一化频率(a)麦克风信号的幅度谱归一化频率(b)L2/Ll-LP预门化版本归一化频率(c)lm-L2/Ll-LP预门化版本1.2优化模型的解图1混响主导环境预白化效果对比的h范数,且&和玄均为非负数。
通过引入辅助向量“和P,采用split-Bregman迭代方法⑹可以获得求解式(2)的迭代算法如下:一旦利用Im-L2/Ll-LP对麦克风信号实施预白化处理,就可以找到预测误差信号e(心之间互相关函数(CC)初始化:A=0,a°=u°=p°=b°=g°=0的最大值,从而实现TDE owhile||a k—||;>tol doa k+1=[(1+A)X T(n)X(n)+AI]_1x[X T(n)x(n)+ A(«4-b k)+AX T(«)F-'(/=^)]u*'+l=shrink(a A+1+b k入p k+l=s hrink(FX(n)/+i+g*,¥)Ab k+1=b k+/+】—/+】g k+l=g k+FX(n')a k+l-p k+ik=k+lend whileA>0为惩罚参数,b,g为Bregman向量,为傅立叶矩阵F的逆矩阵。
shrink(•)为软函数:shrink(g,“)= sgn(g)0max{|g|一“,0},Vf e/?K+/■,/z>0,其中,sgn(•)为符号函数,。
为点积,K为预测器的长度,厶为帧长。
参数儿和入2主要受麦克风信号(X5)和x(n))的影响,分别设置为入1||X T(n)x(n)II.和入2=82||X T(n)x(n)||8 ,其中,II z||8=max|zj|表示任意矢量zI 2仿真对于前两种算法,预测器长度设置为128。
对于所提岀的算法,向量a,u,p,b和g的初始状态均为零向量,迭代次数设置为50,®=0.00102=0.001,惩罚参数入=1.0。
实验在7mx6mx3m的模拟房间内进行。
房间中的位置由三维坐标(%,y,z)来指定,以房间地面的西南角作为坐标原点。
两个麦克风间距为0.1m,分别放置于(1.94, 4.00,1.40)和(2.00,4.08,1.40),声源位于(4.09,1.19, 1.40)。
使用image模型⑺生成从声源到两个麦克风的脉冲响应。
通过将语音源信号与生成的脉冲响应进行卷积产生混响语音信号,然后加入零均值高斯白噪声以控制信噪比(SNR),进而获得麦克风输出信号。
这里采用均方根误差(RMSE)⑻来评估所提算法的性能。
声源信号是来自男女朗读声的语音信号段,采样率48kHz,信号时长约为2.5min。
在仿真过程中,麦克风信号被分成互不重叠的帧,测试总帧数为1000帧,帧长128ms,真实时延为4.0个样本间隔。
仿真结果如图2所示。
图2(a)描绘了轻度混响环境(臨=200ms)时延估计156传感器与微系统第38卷的均方根误差与信噪比的关系。
从图中可以看出,在噪声主导(例如,SNR<10dB)的环境中,L2/L1-LP算法比GCC-PHAT获得更好的噪声鲁棒性;随着信噪比提高,在混响主导(例如,SNR>20dB)的环境中,GCC-PHAT由于具有对混响更好的免疫能力,反而比I2/L1-LP算法获得更好的鲁棒性。