现在的位置: 首页 > 综合 > 正文

关于奇异值分解的一些讨论

2014年03月23日 ⁄ 综合 ⁄ 共 1073字 ⁄ 字号 评论关闭

矩阵的奇异值分解和特征值分解的异同

 

简单的讲 所有的矩阵都可以进行奇异值分解,不管其是否是方阵以及对称矩阵。当所给的矩阵是对称的方阵,A(T)=A,二者的结果是相同的。也就是说对称矩阵的特征值分解是所有奇异值分解的一个特例。
但是二者还是存在一些小的差异,奇异值分解需要对奇异值从大到小的排序,而且全部是大于等于零。
在应用层面上,信号处理中常常遇到一些降维,主分量分析等等的处理需要用到奇异值分解。一般来讲,奇异值分解应用的范围比较广泛。
比如说,对于一个零均值的信号的自相关矩阵CX = X'X,对CX进行奇异值分解和特征值分解,基本上是相似的,但还要注意的是奇异值是由大到小的排序。

 

在信号处理中经常碰到观测值的自相关矩阵,从物理意义上说,如果该观测值是由几个(如 K 个)相互统计独立的源信号线性混合而成,则该相关矩阵的秩或称维数就为 K,由这 K 个统计独立信号构成 K 维的线性空间,可由自相关矩阵最大 K 个特征值所对应的特征向量或观测值矩阵最大 K 个奇异值所对应的左奇异向量展成的子空间表示,通常称信号子空间,它的补空间称噪声子空间,两类子空间相互正交。理论上,由于噪声的存在,自相关矩阵是正定的,但实际应用时,由于样本数量有限,可能发生奇异,矩阵条件数无穷大,造成数值不稳定,并且自相关矩阵特征值是观测值矩阵奇异值的平方,数值动态范围大,因而子空间分析时常采用观测值矩阵奇异值分解,当然奇异值分解也可对奇异的自相关矩阵进行。在自相关矩阵正定时,特征值分解是奇异值分解的特例,且实现时相对简单些,实际中,常采用对角加载法保证自相关矩阵正定,对各特征子空间没有影响。

至于特征值分解和奇异值分解在数学意义上的严格定义及其联系和区别,因为用不上,我没什么研究,抱歉。

在一般意义上二者的结果形式是不同的.但在某种特定的情况下,二者还是有一些联系的. 下面我们就来仔细的分析它们的联系.

   对于特征值分解   [v,d] = eig( A )   , 我们有这样的关系   A = v*d*inv(v)
特征值分解中有一种特殊的分解, 叫正交分解. 正交分解其实就是对称阵的特征值分解, [v,d] = eig(B ) , B = v*d*inv(v); 由于正交分解得到的正交阵满足如下的关系: v*v' = I,所以有 v'=inv(v); 那么也就有 B = v*d*v';

   对于奇异值分解,其分解的基本形式为 [u,s,v] = svd(C),   C = u*s*v'.   若C阵为对称的方阵, 则有 u = v; 所以有 C = v*s*v';

    所以由上述,二者单纯在数学意义上,在特定的情况下,还是有一定的联系的.若有不对的地方,还请指教!

抱歉!评论已关闭.