我是靠谱客的博主 优秀金针菇,最近开发中收集的这篇文章主要介绍【数据分析学习】线性降维方法,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

  1. 主成分分析法PCA
    主成分分析通过线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此达到使用较少的数据维度来保留较多的原数据点特性的效果。
from sklearn.decomposition import PCA
PCA(n_components=2).fit_transform(iris.data)
>>> import numpy as np
>>> from sklearn.decomposition import PCA
>>> X = np.array([[-1, -1], [-2, -1], [-3, -2], [1, 1], [2, 1], [3, 2]])
>>> pca = PCA(n_components=2)
>>> pca.fit(X)
PCA(n_components=2)
>>> print(pca.explained_variance_ratio_)
[0.9924... 0.0075...]
>>> print(pca.singular_values_)
[6.30061... 0.54980...]
>>> pca = PCA(n_components=2, svd_solver='full')
>>> pca.fit(X)
PCA(n_components=2, svd_solver='full')
>>> print(pca.explained_variance_ratio_)
[0.9924... 0.00755...]
>>> print(pca.singular_values_)
[6.30061... 0.54980...]
>>> pca = PCA(n_components=1, svd_solver='arpack')
>>> pca.fit(X)
PCA(n_components=1, svd_solver='arpack')
>>> print(pca.explained_variance_ratio_)
[0.99244...]
>>> print(pca.singular_values_)
[6.30061...]
  1. 线性判别分析法LDA
    线性判别分析法是一种有监督的线性降维方法,与PCA尽可能多地保留数据信息不同,LDA的目的是使降维后的数据点尽可能容易被区分
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis as LDA
LDA(n_components=2).fit_transform(iris.data, iris.target)
  1. 独立成分分析ICA
    独立成分分析是从多元(多维)统计数据中寻找潜在因子或成分的一种方法.ICA与其它的方法重要的区别在于,它寻找满足统计独立和非高斯的成分。
from sklearn.decomposition import FastICA as ICA
ICA(n_components=2).fit_transform(iris.data, iris.target)
  1. 特征选择
    特征选择是一个很重要的数据预处理过程,在现实的机器学习任务中,获得数据之后通常进行特征选择。进行特征选择的原因:
    (1)维数灾难问题
    (2)去除不相关特征,往往会降低学习任务的难度。

最后

以上就是优秀金针菇为你收集整理的【数据分析学习】线性降维方法的全部内容,希望文章能够帮你解决【数据分析学习】线性降维方法所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(63)

评论列表共有 0 条评论

立即
投稿
返回
顶部