我是靠谱客的博主 激昂篮球,最近开发中收集的这篇文章主要介绍pca 矩阵 迹_通俗易懂的讲解奇异值分解(SVD)和主成分分析(PCA),觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

e3d3a81f5578df0cc1777157883635a5.png

图片来自Unsplash上的Dave

0.本教程包含以下内容

特征分解

对称矩阵的特征分解

奇异值分解(The Singular Value Decomposition,SVD)

主成分分析(Principal Component Analysis ,PCA)——特征提取

1.特征分解

首先,我们简单回顾下特征值和特征向量的定义。在几何学中,矩阵A的特征向量是指一个经过与矩阵A变换后方向保持不变的向量(其中,假设特征值均为实数)。而特征值为在这个变化中特征向量的比例因子。具体可表示如下:

41adb0e5d43dc9dc0d00c24a86eb6e5c.png

矩阵A与特征向量x的变换等于特征向量x与特征值λ的乘积

对于一个3×3维的矩阵A,我们可以将矩阵A与其特征向量x的变换理解为将矩阵A与另一个矩阵x的乘积。这是因为矩阵A与其特征向量x的变换等同于矩阵A的每一行与特征向量x的变换,从而矩阵之间的乘积可以表示为其特征值与特征向量的乘积。此时我们便能够分离出矩阵的特征值和特征值向量,并将其放在两个矩阵之中。具体过程如下:

b58e530af0967050ec62650d08b19132.png

通过上面等式,我们可以推出以下等式:

926f71a9765dd1d41f98c342cd12d737.png

如果一个n×n维矩阵的n个特征向量均是线性无关的,则这个矩阵能够被对角化

观察上式,我们能够看到一个n×n维的矩阵可以由三个独立的矩阵构成,即一个由特征向量组成的n×n维的矩阵X和矩阵X的逆,以及一个由特征值组成的n×n维的对角矩阵Λ。而这个过程也被称为矩阵的特征分解。

2.对称矩阵的特征分解

对称矩阵有一个非常重要的性质:他的特征向量是正交向量。为了证明这个性质,我们首先假设有以下两个互不相等的特征值和特征向量,如下:

29f4c77a32ca391dbf641de1ac88c503.png

通过下面的等式,我们能够推出λ1(x1*x2)= λ2(x1*x2):

455ce6e1aa1890621aa20bd6ea2778d0.png

根据前面步骤的结果,我们可以得到如下等式:

5b837d096e1bc2c598bae7ccda5768ce.png

我们一开始便假设特征值λ1与λ2并不相等。因此特征值λ1与λ2均不为0,从而x1*x2也不可能等于0——所以这个特征向量是正交的。这揭示了一个重要的结论:对称矩阵能够被分解为两个正交特征向量组成的矩阵与对角矩阵的乘积。并且,对称矩阵的特征值均为实数。

95348ddab03d5189979ff2d259f7c22b.png

对称矩阵的特征向量具有正交性

3.奇异值分解(SVD)

特征分解适用于n×n维的方形矩阵,而由于m×n维的矩形矩阵在变换过程中会改变矩阵原本的维数,从而对于矩形矩阵并没有对其特征值进行过定义。

9c89e1a6e98da0e4cc5e71bf11010370.png

因此对于一个m×n维的矩形矩阵,我们能够使用下面的方法对其进行特征分解——即奇异值分解:

9e2f0648c656661ab3c26664626bb627.png

其中,矩阵UV是正交矩阵,Σ表示一个包含有奇异值的对角阵。需要说明的是,VU中的列向量分别作为矩阵A的行空间和列空间中的基向量。

接下来,我们将对其细节进行深入介绍。其实SVD的主要目标就是为了找到三个参数:矩阵v,矩阵u和奇异值σ,其中矩阵vu都是正交向量且满足下面等式:

c437223df06023c8bb797157a2248b45.png

一个n维的列向量v经过矩阵A的变换等于一个m维的行向量u经过奇异值σ的缩放。

与之前在特征分解部分的步骤相似,我们也可以将上面的方程用矩阵形式表示出来,从而可以得到矩阵A奇异值分解的表达式。

但是,矩阵v,矩阵u和奇异值σ应该如何求取呢?我们可以通过矩阵乘积(AAᵀ和AᵀA)的方式从方程的两边来分别消除VU来获得,具体方法如下:

8dab0808d14b495d9f4ae4b4837e7607.png

2251d5a43407c436ebfc2608bea7ed3f.png

这些步骤看起来是不是很熟悉…

的确,通过对对称矩阵AAᵀ和AA进行奇异值分解,这个结果看起来几乎与对对称矩阵进行特征分解是相同的。因此,找到了矩阵U和矩阵V,那么矩阵AAᵀ和AA的特征分解就能很容易被执行了,并且相应的矩阵Q也能够被找到。对于σ,他们即是矩阵AAᵀ也是矩阵AA的均方根特征值,如下所示:

5baf9154b13a545a4f869df5fc393854.png

其中值得注意的是,按照习惯奇异值σ在矩阵Σ中总是按递减的顺序进行排列——即第一行放最大的奇异值,最小的奇异值放在最后一行。如果需要与矩阵Σ中的σ一一对应,那么就需要对矩阵U和矩阵V中的列进行重新排列。

现在,我们有了一件非常令人兴奋的事,我们得到了一种可以分解任何矩阵的方法,而不仅仅局限于对方阵进行特征分解。我们现在可以将任何矩阵分解成两个正交矩阵和一个对角矩阵,其中矩阵U的维度为m×r,对角阵Σ的维度为r×r和矩阵V的维度为r×n,其并且矩阵A的秩为r

4.主成分分析法(PCA)——特征提取

PCA在机器学习中是一种常用的无监督学习算法,它通过构建一种被称为主成分的变量,并将所用到的所有向量映射到由主成分变量构建的空间上去,从而能够减少数据的维度。

主成分分析优点:

1. 减少模型的训练时间——使用了更少的数据集;

2. 数据更容易可视化——对于高维数据,通过人工的方式去实现可视化是比较困难的。

3. 一些情况下能减小过拟合度——通过减少变量来降低模型的过拟合度。

对于实例,我们使用主成分分析法对一个统计包进行了分析。这里为了介绍理论基础,以一个小数据集作为例子进行讲解:

3e4d9037bd801f5d1e24560453ed2852.png

矩阵A有5行3列

我们测试了矩阵A的相关性,从中我们能够发现矩阵A的相关矩阵为一个对称阵:

555f8a74ef0a98e0aebab86f81c2dd61.png

矩阵A的相关性分析

对矩阵A进行SVD,能够得到矩阵UΣV。需要额外说明的是:所有奇异值的平方和与数据集的总体方差相等。

e80bfd73a63877b74df01fc469e391b9.png

a723e32290a99d737df30011950c96c4.png

259c953f33c02ea30ae64529720dfb54.png

对协方差矩阵A采用下式进行计算:

48362bf99990426563a5ce3eaa4d9868.png

1.矩阵A是经过标准化后的矩阵,它的均值为0;2.m是样本数量

从直观上可看出,总方差=协方差矩阵AA的迹=矩阵AA的特征值之和=奇异值平方之和。通过奇异值分解得到的u即是n维空间中的主成分,第i个主成分的重要性可由下式计算所得(通过计算在方差中的比例来确定):

bb70bec2eba7263f577ecd591a9bbb1d.png

奇异值越大=得到的方差越多=包含的信息就越多

回顾我们例子中的对角矩阵Σu1对应的最大奇异值为17.7631,占数据集中方差的比例为74%。因此,通过把5个样本向量映射到u1,在没有损失任何信息的情况下,所需分析矩阵A的维度从3维下降到了1维。

作者:李爱(Li Ai)

最后

以上就是激昂篮球为你收集整理的pca 矩阵 迹_通俗易懂的讲解奇异值分解(SVD)和主成分分析(PCA)的全部内容,希望文章能够帮你解决pca 矩阵 迹_通俗易懂的讲解奇异值分解(SVD)和主成分分析(PCA)所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(34)

评论列表共有 0 条评论

立即
投稿
返回
顶部