概述
六、PCA主成分分析(降维)
- github地址:https://github.com/lawlite19/MachineLearning_Python
- 全部代码
1、用处
- 数据压缩(Data Compression),使程序运行更快
- 可视化数据,例如
3D-->2D
等 - ……
2、2D–>1D,nD–>kD
- 如下图所示,所有数据点可以投影到一条直线,是投影距离的平方和(投影误差)最小
- 注意数据需要
归一化
处理 - 思路是找
1
个向量u
,所有数据投影到上面使投影距离最小 - 那么
nD-->kD
就是找k
个向量,所有数据投影到上面使投影误差最小
- eg:3D–>2D,2个向量就代表一个平面了,所有点投影到这个平面的投影误差最小即可
3、主成分分析PCA与线性回归的区别
- 线性回归是找
x
与y
的关系,然后用于预测y
PCA
是找一个投影面,最小化data到这个投影面的投影误差
4、PCA降维过程
数据预处理(均值归一化)
- 公式:
- 就是减去对应feature的均值,然后除以对应特征的标准差(也可以是最大值-最小值)
- 实现代码:
# 归一化数据 def featureNormalize(X): '''(每一个数据-当前列的均值)/当前列的标准差''' n = X.shape[1] mu = np.zeros((1,n)); sigma = np.zeros((1,n)) mu = np.mean(X,axis=0) sigma = np.std(X,axis=0) for i in range(n): X[:,i] = (X[:,i]-mu[i])/sigma[i] return X,mu,sigma
- 计算
协方差矩阵Σ
(Covariance Matrix):
- 注意这里的
Σ
和求和符号不同 - 协方差矩阵
对称正定
(不理解正定的看看线代) - 大小为
nxn
,n
为feature
的维度 - 实现代码:
Sigma = np.dot(np.transpose(X_norm),X_norm)/m # 求Sigma
- 注意这里的
- 计算
Σ
的特征值和特征向量
- 可以是用
svd
奇异值分解函数:U,S,V = svd(Σ)
- 返回的是与
Σ
同样大小的对角阵S
(由Σ
的特征值组成)[注意:matlab
中函数返回的是对角阵,在python
中返回的是一个向量,节省空间] - 还有两个**酉矩阵**U和V,且
- 注意:
svd
函数求出的S
是按特征值降序排列的,若不是使用svd
,需要按特征值大小重新排列U
- 可以是用
降维
- 选取
U
中的前K
列(假设要降为K
维) Z
就是对应降维之后的数据- 实现代码:
# 映射数据 def projectData(X_norm,U,K): Z = np.zeros((X_norm.shape[0],K)) U_reduce = U[:,0:K] # 取前K个 Z = np.dot(X_norm,U_reduce) return Z
- 选取
- 过程总结:
Sigma = X'*X/m
U,S,V = svd(Sigma)
Ureduce = U[:,0:k]
Z = Ureduce'*x
5、数据恢复
- 因为:
- 所以: (注意这里是X的近似值)
- 又因为
Ureduce
为正定矩阵,【正定矩阵满足:,所以:】,所以这里: - 实现代码:
# 恢复数据
def recoverData(Z,U,K):
X_rec = np.zeros((Z.shape[0],U.shape[0]))
U_recude = U[:,0:K]
X_rec = np.dot(Z,np.transpose(U_recude))
# 还原数据(近似)
return X_rec
6、主成分个数的选择(即要降的维度)
- 如何选择
- 投影误差(project error):
- 总变差(total variation):
- 若误差率(error ratio):,则称
99%
保留差异性 - 误差率一般取
1%,5%,10%
等
- 如何实现
- 若是一个个试的话代价太大
- 之前
U,S,V = svd(Sigma)
,我们得到了S
,这里误差率error ratio:
- 可以一点点增加
K
尝试。
7、使用建议
- 不要使用PCA去解决过拟合问题
Overfitting
,还是使用正则化的方法(如果保留了很高的差异性还是可以的) - 只有在原数据上有好的结果,但是运行很慢,才考虑使用PCA
8、运行结果
- 2维数据降为1维
- 要投影的方向
- 2D降为1D及对应关系
- 要投影的方向
- 人脸数据降维
- 原始数据
- 可视化部分
U
矩阵信息
- 恢复数据
- 原始数据
9、使用scikit-learn库中的PCA实现降维
- 导入需要的包:
#-*- coding: utf-8 -*-
# Author:bob
# Date:2016.12.22
import numpy as np
from matplotlib import pyplot as plt
from scipy import io as spio
from sklearn.decomposition import pca
from sklearn.preprocessing import StandardScaler
- 归一化数据
'''归一化数据并作图'''
scaler = StandardScaler()
scaler.fit(X)
x_train = scaler.transform(X)
- 使用PCA模型拟合数据,并降维
n_components
对应要将的维度
'''拟合数据'''
K=1 # 要降的维度
model = pca.PCA(n_components=K).fit(x_train)
# 拟合数据,n_components定义要降的维度
Z = model.transform(x_train)
# transform就会执行降维操作
- 数据恢复
model.components_
会得到降维使用的U
矩阵
'''数据恢复并作图'''
Ureduce = model.components_
# 得到降维用的Ureduce
x_rec = np.dot(Z,Ureduce)
# 数据恢复
最后
以上就是积极网络为你收集整理的机器学习(七):主成分分析PCA降维_Python的全部内容,希望文章能够帮你解决机器学习(七):主成分分析PCA降维_Python所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复