资源描述
LMS自适应线性预测实验报告
一、实验要求
首先由二阶AR模型产生自适应滤波器的输入信号,公式如下:
其中为方差为的零均值高斯白噪声,模型参数与满足。二阶AR模型图如下:
二阶AR模型框图
得到自适应滤波器的输入信号后,通过二阶线性预测滤波器进行自适应线性预测,其框图如下:
+
—
自适应算法
自适应线性滤波器
采用LMS算法进行自适应线性预测,设第n次预测的权值向量,第n次预测的输入数据向量,的预测值经滤波过程产生,其公式如下:
误差信号计算公式如下:
权值更迭公式如下:
其中为迭代因子。
实验要求如下:
(1)令,迭代因子、数据长度自定,给出LMS自适应预测的仿真结果,结果用权值变化曲线以及误差平方变化曲线表示,观察其收敛情况,分别进行单次预测及100次预测取平均值两次实验。
(2)条件与(1)相同,改变迭代因子的值,分别进行单次预测及800次预测取平均值两次实验,观察其收敛情况。
(3)条件与(1)相同,但改变特征根扩散度,,可通过改变的值实现,分别进行单次预测及100次预测取平均值两次实验,观察其收敛情况。
二、理论分析
LMS算法的收敛是统计意义下的收敛问题,分别讨论其均值收敛及最小均方误差收敛。
1. 均值收敛
由权值更迭公式可进行如下推导:
设k时刻权值误差向量,则
由维纳-霍夫方程知,,所以有
因为为Hermite矩阵,所以可分解为,其中,为的特征值,,设为特征值对应的特征向量。所以有
又因为为酉矩阵,,所以有
令,则
对于所有的,如果,当.
所以LMS算法均值收敛的条件为,其值越大,收敛速度越快。
2. 均方误差收敛
由滤波公式及误差公式,得:
其中为第n次预测权值最优时的预测误差。
当,LMS算法的均方误差收敛于最优预测权值的最小均方误差。
三、实验结果及分析
1. 单次预测与多次预测取平均结果对比
取,分别进行单次预测及100次预测对其权值和均方误差取平均,对比实验结果。
LMS算法权值收敛图
单次LMS平方误差收敛图 多次LMS平方误差收敛图
由图可见,单次LMS算法的权向量不是收敛于最优值的,而是在最优值附近漂移,其平方误差也不是收敛的,而是在最优预测平方误差附近漂移,这是LMS算法每次迭代不严格按照真实梯度方向收敛所引起的。
而多次LMS取平均后,这种随机性得到了抑制,可以看到其权值收敛于最优值。
2. 不同收敛因子值预测结果对比
取,再分别取,对比实验结果。
权值收敛图
权值收敛图
权值收敛图
平方误差收敛图
平方误差收敛图
平方误差收敛图
通过观察多次LMS权值收敛曲线及平方误差收敛曲线可以比较清晰地看见,收敛因子越大,收敛速度越快;通过观察单次LMS权值收敛曲线可见,收敛因子越大,预测权值在最优权值附近的波动就越大,这一点也可以从平方误差曲线收敛特点中观察到。可见,LMS算法的收敛速度与失调波动之间存在矛盾,设计收敛因子时需要折衷考虑。
3. 不同特征根扩散度预测结果对比
取,分别取,即分别取,对比实验结果。
权值收敛图
权值收敛图
权值收敛图
平方误差收敛图
平方误差收敛图
平方误差收敛图
由权值收敛图可见,改变,最优权值发生改变,由平方误差图可见,增加,最优预测下的均方误差减小,相应的LMS算法平方误差也减小,证明波动减小。
从两种收敛图中都可以看出,越大,越远离1,收敛速度越慢,当时甚至600个点都没有收敛。
附页:
Matlab程序代码
展开阅读全文