pca算法matlab代码(单因素方差分析原理)

PCA主成分分析原理分析和Matlab实现方法(三)PCA算法主要用于降维,就是将样本数据从高维空间投影到低维空间中,并尽可能的在低维空间中表示原始数据。PCA的几何意义可简单解释为:0维-PCA:将所有样本信息都投影到一个点,因此无法反应样本之间的差异;要想用一个点来尽可能的表示所有样本数据,则这个点必定是样本的均值。1维-PCA:相当于将所有样本信息向样本均值的直线投影;2维-PCA:将样本的平面分布看作椭圆形分布,求出椭圆形的长短轴方向,然后将样本信息投

大家好,又见面了,我是你们的朋友全栈君。

 PCA主成分分析原理分析和Matlab实现方法(三)

尊重原创,转载请注明出处】http://blog.csdn.net/guyuealian/article/details/68487833
     
 网上关于PCA(主成分分析)原理和分析的博客很多,本博客并不打算长篇大论推论PCA理论,而是用最精简的语言说明鄙人对PCA的理解,并在最后给出用Matlab计算PCA过程的三种方法,方便大家对PCA的理解。
       PS:本博客所有源代码,都可以在附件中找到
下载

http://download.csdn.net/detail/guyuealian/9799160
      关于PCA原理的文章,可参考:
      [1]http://blog.csdn.net/guyuealian/article/details/68483384 
      [2]http://blog.csdn.net/guyuealian/article/details/68483213
      [3]张铮的《精通Matlab数字图像处理与识别

一、PCA原理简要说明

      PCA算法主要用于降维,就是将样本数据从高维空间投影到低维空间中,并尽可能的在低维空间中表示原始数据。PCA的几何意义可简单解释为:

      0维-PCA:将所有样本信息都投影到一个点,因此无法反应样本之间的差异;要想用一个点来尽可能的表示所有样本数据,则这个点必定是样本的均值。
      1维-PCA:相当于将所有样本信息向样本均值的直线投影;
      2维-PCA:将样本的平面分布看作椭圆形分布,求出椭圆形的长短轴方向,然后将样本信息投影到这两条长短轴方向上,就是二维PCA。(投影方向就是平面上椭圆的长短轴方向);
      3维-PCA:样本的平面分布看作椭圆形分布,投影方法分别是椭圆球的赤道半径a和b,以及是极半径c(沿着z轴);

     PCA简而言之就是根据输入数据的分布给输入数据重新找到更能描述这组数据的正交的坐标轴,比如下面一幅图,对于那个椭圆状的分布,最方便表示这个分布的坐标轴肯定是椭圆的长轴短轴而不是原来的x ,y轴。

pca算法matlab代码(单因素方差分析原理)

     那么如何求出这个长轴和短轴呢?于是线性代数就来了:我们需要先求出这堆样本数据的协方差矩阵,然后再求出这个协方差矩阵的特征值和特征向量,对应最大特征值的那个特征向量的方向就是长轴(也就是主元)的方向,次大特征值的就是第二主元的方向,以此类推。

 

二、PCA实现方法

      实现PCA的方法, 可【1】直接调用Matlab工具箱princomp( )函数实现,也可【2】 自己实现PCA的过程,当然也可以【3】使用快速PCA算法的方法。
(1)方法一:[COEFF SCORE latent]=princomp(X)
    参数说明:
    1)COEFF 是主成分分量,即样本协方差矩阵的特征向量;
    2)SCORE主成分,是样本X在低维空间的表示形式,即样本X在主成份分量COEFF上的投影 ,若需要降k维,则只需要取前k列主成分分量即可
    3)latent:一个包含样本协方差矩阵特征值的向量;
      实例:假设有8个样本,每个样本有4个特征(属性),使用PCA方法实现降维(k维,k小于特征个数4),并提取前2个主成份的特征,即将原始数据从4维空间降维到2维空间。
%% 样本矩阵X,有8个样本,每个样本有4个特征,使用PCA降维提取k个主要特征(k<4)
k=2;                            %将样本降到k维参数设置
X=[1 2 1 1;                     %样本矩阵
      3 3 1 2; 
      3 5 4 3; 
      5 4 5 4;
      5 6 1 5; 
      6 5 2 6;
      8 7 1 2;
      9 8 3 7]
%% 使用Matlab工具箱princomp函数实现PCA
[COEFF SCORE latent]=princomp(X)
pcaData1=SCORE(:,1:k)            %取前k个主成分

运行结果:

X =
     1     2     1     1
     3     3     1     2
     3     5     4     3
     5     4     5     4
     5     6     1     5
     6     5     2     6
     8     7     1     2
     9     8     3     7
COEFF =
    0.7084   -0.2826   -0.2766   -0.5846
    0.5157   -0.2114   -0.1776    0.8111
    0.0894    0.7882   -0.6086    0.0153
    0.4735    0.5041    0.7222   -0.0116
SCORE =
   -5.7947   -0.6071    0.4140   -0.0823
   -3.3886   -0.8795    0.4054   -0.4519
   -1.6155    1.5665   -1.0535    1.2047
   -0.1513    2.5051   -1.3157   -0.7718
    0.9958   -0.5665    1.4859    0.7775
    1.7515    0.6546    1.5004   -0.6144
    2.2162   -3.1381   -1.6879   -0.1305
    5.9867    0.4650    0.2514    0.0689
latent =
   13.2151
    2.9550
    1.5069
    0.4660
pcaData1 =
   -5.7947   -0.6071
   -3.3886   -0.8795
   -1.6155    1.5665
   -0.1513    2.5051
    0.9958   -0.5665
    1.7515    0.6546
    2.2162   -3.1381
    5.9867    0.4650

(2)方法二:自己编程实现


    PCA的算法过程,用一句话来说,就是“
将所有样本X减去样本均值m,再乘以样本的协方差矩阵C的特征向量V,即为PCA主成分分析
”,其计算过程如下:
    [1].将原始数据按行组成m行n列样本矩阵X(每行一个样本,每列为一维特征)
    [2].求出样本X的协方差矩阵C和样本均值m;Matlab可使用cov()函数求样本的协方差矩阵C,均值用mean函数
    [3].求出协方差矩阵的特征值D及对应的特征向量V;(

Matlab可使用eigs()函数求矩阵的特征值D和特征向量V



    
[4].将特征向量按对应特征值大小从上到下按行排列成矩阵,取前k行组成矩阵P;eigs()返回特征值构成的向量本身就是从大到小排序的


    
[5].Y=(X-m)×P即为降维到k维后的数据;

    PS:关于协方差矩阵,很多人有点郁闷,有些教程用协方差矩阵,而有些资料是用散步矩阵计算,其实协方差矩阵和散步矩阵就是一个倍数关系:
协方差矩阵C×(n-1)=散步矩阵S
。我们可以使用Matlab工具箱的cov函数求协方差矩阵C。
 %% 自己实现PCA的方法[Row Col]=size(X);covX=cov(X);                                    %求样本的协方差矩阵(散步矩阵除以(n-1)即为协方差矩阵)[V D]=eigs(covX);                               %求协方差矩阵的特征值D和特征向量VmeanX=mean(X);                                  %样本均值m%所有样本X减去样本均值m,再乘以协方差矩阵(散步矩阵)的特征向量V,即为样本的主成份SCOREtempX= repmat(meanX,Row,1);SCORE2=(X-tempX)*V                              %主成份:SCOREpcaData2=SCORE2(:,1:k)
运行结果:
SCORE2 =   -5.7947    0.6071   -0.4140    0.0823   -3.3886    0.8795   -0.4054    0.4519   -1.6155   -1.5665    1.0535   -1.2047   -0.1513   -2.5051    1.3157    0.7718    0.9958    0.5665   -1.4859   -0.7775    1.7515   -0.6546   -1.5004    0.6144    2.2162    3.1381    1.6879    0.1305    5.9867   -0.4650   -0.2514   -0.0689pcaData2 =   -5.7947    0.6071   -3.3886    0.8795   -1.6155   -1.5665   -0.1513   -2.5051    0.9958    0.5665    1.7515   -0.6546    2.2162    3.1381    5.9867   -0.4650

     对比方法一和方法可知,主成份分量SCORE和SCORE2的绝对值是一样的(符号只是相反方向投影而已,不影响分析结果),其中pcaData是从SCORE提取前2列的数据,这pcaData就是PCA从4维降到2
维空间的数据表示形式,pcaData可以理解为:通过PCA降维,每个样本可以用2个特征来表示原来4个特征了。

(3)方法三:使用快速PCA方法

     
PCA
的计算中最主要的工作量是计算样本协方差矩阵的本征值和本征向量。假设样本矩阵
X
的大小为
n ×d
(
n

d
 
维样本特征向量
)
,则样本散布矩阵
(
协方差矩阵
) S
将是一个
d×d
的方阵,故当维数
d
较大时计算复杂度会非常高。例如当维数
d=
10000

S
是一个
10 000
×10 000
的矩阵,此时如果采用上面的
princomp
函数计算主成份,
Matlab
通常会出现内存耗尽的问题(
out of memory
), 即使有足够多的内存,要得到
S
的全部本征值可能也要花费数小时的时间。
    快速PCA的方法相关理论,可以参考
张铮的《精通Matlab数字图像处理与识别
》第12章(
P307
),PDF可在附件下载:http://download.csdn.net/detail/guyuealian/9799160

    fastPCA函数用来对样本矩阵A进行快速主成分分析和降维(降至k维),其输出pcaA为维后的k维样本特征向量组成的矩阵,每行一个样本,列数k为降维后的样本特征维数,相当于princomp函数中的输出SCORE, 而输出V为主成分分量,相当于princomp函数中的输出COEFF。

 

%% 使用快速PCA算法实现的方法
[pcaData3 COEFF3] = fastPCA(X, k )

    其中fastPCA函数的代码实现如下:

 

function [pcaA V] = fastPCA( A, k )
% 快速PCA
% 输入:A --- 样本矩阵,每行为一个样本
%      k --- 降维至 k 维
% 输出:pcaA --- 降维后的 k 维样本特征向量组成的矩阵,每行一个样本,列数 k 为降维后的样本特征维数
%      V --- 主成分向量
[r c] = size(A);
% 样本均值
meanVec = mean(A);
% 计算协方差矩阵的转置 covMatT
Z = (A-repmat(meanVec, r, 1));
covMatT = Z * Z';
% 计算 covMatT 的前 k 个本征值和本征向量
[V D] = eigs(covMatT, k);
% 得到协方差矩阵 (covMatT)' 的本征向量
V = Z' * V;
% 本征向量归一化为单位本征向量
for i=1:k
    V(:,i)=V(:,i)/norm(V(:,i));
end
% 线性变换(投影)降维至 k 维
pcaA = Z * V;
% 保存变换矩阵 V 和变换原点 meanVec

运行结果为:

pcaData3 =

   -5.7947   -0.6071
   -3.3886   -0.8795
   -1.6155    1.5665
   -0.1513    2.5051
    0.9958   -0.5665
    1.7515    0.6546
    2.2162   -3.1381
    5.9867    0.4650

COEFF3 =

    0.7084   -0.2826
    0.5157   -0.2114
    0.0894    0.7882
    0.4735    0.5041


    源代码和附件下载地址:http://download.csdn.net/detail/guyuealian/9799160

 
 
如果你觉得该帖子帮到你,还望贵人多多支持,鄙人会再接再厉,继续努力的~
pca算法matlab代码(单因素方差分析原理)
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/129237.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

  • hbase 单机安装部署

    hbase 单机安装部署hbase 单机安装部署

  • Idea设置快捷键_打开快捷键设置

    Idea设置快捷键_打开快捷键设置六、设置快捷键(Keymap)设置快捷为Eclipse的快捷键2.通过快捷键功能修改快捷键设置3.通过指定快捷键,查看或修改其功能4.导入已有的设置点击0K之后,重启IDEA即可。5.常用快捷键七、关于模板(Templates)(Editor–LiveTemplates和Editor–General–PostfixCompl…

  • 基于pytorch卷积人脸表情识别–毕业设计「建议收藏」

    基于卷积神经网络的人脸表情识别前言毕业设计内容介绍卷积神经网络的设计卷积网络的模型卷积池化过程详细说明第一层卷积池化过程第二层卷积池化过程第三层卷积池化过程全连接层过程模型的训练过程卷积与池化原理模型如何训练模型的评估指标训练结果分析通过训练曲线分析通过混淆矩阵分析效果通过摄像头识别表情设计流程效果演示部分代码展示总结前言这篇文章记录一下我本科毕业设计的内容。我的课题是人脸表情识别,本来最开始按照历届学长的传统是采用MATLAB用传统的机器学习方法来实现分类的。但是鉴于我以前接触过一点点深度学习的内容,

  • SpringCloud Alibaba完整使用

    SpringCloud Alibaba完整使用搭建AlibabaCloud首先搭建几个环境全部在Linux下1、nacos注册中心2、sentinel流量控制,断路3、apache-skywalking-apm-bin监控接口的速度、效率等等4、Rocketmq的使用项目如下在这里插入代码片首先创建pom工程***Alibaba-Cloud***|<?xmlver……

  • 光信快速取消1技能_生信技能树笔记软件

    光信快速取消1技能_生信技能树笔记软件人鼠基因转换之首字母大写首字母大小写转换但是有个问题,并不是所有的同源基因只是简单的首字母大小写配对的。#改进版本human_gene<-c(“PTPRC”,”EPCAM”,”MME”,”CD3G”,”CD3E”,”CD68″,”CD79A”,”RP11-34P13.8″)#若干人类基因upper_low<-function(var){var=tolower(var)first_letter=toupper(substr(var,

    2022年10月31日
  • 如何卸载赛门铁克symantec,ivanti[通俗易懂]

    如何卸载赛门铁克symantec,ivanti[通俗易懂]1、会安装这个软件的公司大概率不会改密码,默认卸载密码就是:symantec2、如果不幸改了密码,用下面这个软件可以卸载大部分功能链接:https://pan.baidu.com/s/14evQQ1sHh2FCmYjtBBmMqw提取码:luna

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号