现在的位置: 首页 > 综合 > 正文

透过表象看本质!?之二——除了最小p乘,还有PCA 透过表象看本质!?之二——除了最小p乘,还有PCA

2017年11月03日 ⁄ 综合 ⁄ 共 2466字 ⁄ 字号 评论关闭
 

透过表象看本质!?之二——除了最小p乘,还有PCA

分类: 人工智能 观测 本质 预测 166人阅读 评论(1) 收藏 举报

如图1所示,最小p乘法求得是,而真实值到拟合曲线的距离为。那么,对应的是什么样的数据分析呢?

图1 最小p乘法的使用的误差是。真实值到拟合曲线的距离为

假如存在拟合曲线,设直线方程为。真实值到该曲线的投影点为。p=2时,则两点之间的距离为

                                                           
                                                     (37)

                                                               
                                                 (38)

在直线上,同时。这两个条件构成如下方程组

 
                                                                                               (39)

联立上述方程组求得

                             
                                                                 (40)

代入式(37)(38)得

                               
                                                                  (41)

上式两边对b求偏导,令偏导数为零得

 
                                                                                        (42)

化简为

                                                           
                                            (43)

                                               
                                                   (44)

                                                                                         
                       (45)

                                                                                         
                       (46)

将式(45)(46)代入式(44)得

                                                                                                  (47)

                                                                                                             (48)

因此,该直线通过均值点,投影点可以改写为

                                                                                              (49)

其中e是直线方向的单位向量。将式(49)代入式(38)得

化简为

                                               
                                                     (50)

其中。上式中等号右边的第二项是个常量,不影响I取得极值时对应的e,可以去掉。同时,我们假设e是单位向量,则。重写I如下

                                                                                 
                         (51)

上式两边对e求导得

                                                                         
                                     (52)

化简得

                                                                                                                              (53)

上式成立时,u取得最大值,I取得最小值。对上两边同时除以(n-1),得到数据矩阵的协方差矩阵。/(n-1)是协方差矩阵的特征值,e是对应的特征向量。上述推导过程可以较为简单的推广到m维空间。对特征值按降序排列,,其中m为数据变量的维度。对应着数据的主方向。经过特征向量矩阵的映射,将协方差矩阵投影为对角阵,变量之间的相关性被消除,而数据方差最大的方向就是主方向。

当计算出数据协方差矩阵的特征向量后,我们计算贡献率

 
                                                                                   (54)

求出

                                                       
                                      (55)

使用前个特征值和特征向量压缩原来的数据的表达空间,同时还能保证压缩后的数据矩阵损失最小。上述方法就是我们熟悉的PCA。

主方向线通过数据矩阵的均值点,这个点对应的是使用PCA做人脸识别时求出的均值脸。

总结一下PCA的推导过程,

1、去数据变量样本间的均值,并将该均值从数据矩阵中减去,得到零均值矩阵。

2、求零均值数据矩阵的协方差矩阵。

3、求协方差矩阵的特征向量和特征值。

4、按照一定的比例选择特征值和特征向量,实现降维。

 

上面推导的是线性关系的PCA,对于非线性的数据上面的方法可能会失效。解决方法,使用核函数将数据映射到高维再进行上述分析,这貌似就是kernel PCA。

同时,PCA分析的主方向通过数据的均值。而数据的均值很采样数据紧相关,如果数据中存在粗大误差,那么此时的均值不能反应真实的数据均值。如果不进行预处理,后续的PCA分析很可能会是错误的,达不到预期的效果。因此,对数据进行预处理是很必要的,剔除粗大误差后再进行PCA分析,貌似就是robust PCA。

在PCA推导的过程中,我们可以较为清晰地看到,如果将数据标签揉到推导中,修改优化的目标函数,我们应该能推导出SVM。因此,不同的误差定义,不同的优化目标函数推导出了不同的数据分析方法。无论这些怎么变换花样,其依托的数学思想都是一致的。

说到这里,我们差不多吧数据拟合相关的数据分析方法说了遍,但是说来说去关键问题还是没有触及,我们最关心最希望自动化的东西没有设计,那就是数据的模式,线性的还是非线性的,一阶的还是二阶的等等问题。因为,我们明明可以看到数据在图像上或者几何上呈现出了某种分布,但是却不能通过数学推导自动化的把它从数据中挖出来。

到底能不能是一个终极问题,这个系列的文章只能做个抛砖引玉,希望能够激发出大家的进一步迭代思考,也许这种模式对应的数学公式就在不远处。

未完待续

抱歉!评论已关闭.