经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 大数据云AI » 人工智能基础 » 查看文章
浅谈PCA
来源:cnblogs  作者:新晋主播  时间:2018/11/13 9:23:40  对本文有异议

最近在回顾PCA方面的知识,发现对于之前的很多东西有了新的理解,下面和大家分享下我的一些个人的理解

1.我们为什么要用PCA,它能解决我什么问题?

  PCA(Principal Component Analysis),主成成分分析,常用于高维数据的降维。在企业级环境中,最终用于模型训练的数据集往往维度很高,占用内存空间更大。PCA的出现,能保证尽量保留数据更完整信息的同时,将数据降低到更低的维度,这样不仅占用内存空间更小,模型训练速度也明显加快! (这里的模型训练的速度的加快是   降维之前训练所用的时间  对比 降维所用的时间 + 降维之后训练所用的时间

2.PCA的理论分析

  PCA的目标:

        2.1:将原始数据集通过降维的方式,在新的坐标系下表示,新的坐标系的维度远低于原始维度。

        2.2:在新的坐标系下的表示应尽量保留相对完整的信息。

  对于2.2我们知道,完整的信息指的是数据间的差异。例如我们在做模型训练的时候,往往希望训练数据的分布是涵盖了所有的情况一样。我们用方差来衡量数据间的离散程度,这也是新坐标下的衡量指标,我们要找到这样的一组坐标系,使得原始数据在新坐标系下的方差最大。

3.准备工作

  进行降维之前,让我们来做些准备工作。首先对数据进行0均值归一化,之后再做标准化处理。使得所有数据在同一量纲。

4.数学推导

  

                上式中的μ为空间中的一个向量,x为经过特征工程处理过后的矩阵。第一个式子为我们的目标函数,第二个为最优解的约束,问题为在约束空间内求最优解的问题,用拉格朗日乘子来求解。

    得到下面的结果:

    

    其中我们使,为协方差矩阵。所以我们知道μ就是e的主特征向量。(关于特征向量和特征值的一些概念,可以参靠一些资料来复习下)

    我们的原始问题在此刻即转变为求e矩阵的TOPk个特征值对应的k个特征向量的问题

5.选几个?

              对应最终的特征向量,我们选取几个,最终数据降低到几维度,那么,我们要怎么选取?

    

 

    假设上式为降维后对应的特征向量,那么根据特征值占比来选择最终保留的维度,即如果降低到1维  此时的特征值占比为(3/3+2+0.1),如果降低到二维度,此时的特征值占比为(3+2/3+2+0.1)

    如果要求信息量保留95%,那么根据特征值占比与目标值做比较,达到要求即可。

(有一些问题没有讨论,后续完善!之后会上代码做比较!)

 

 

参考资料:吴恩达机器学习公开课

     马同学高等数学公众号

 

 

 

 

 

 

 

 

        

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号