sklearn-降维-PCA
[toc]
PCA 主成分分析
1 | class sklearn.decomposition.PCA(n_components=None,whiten=False,svd_solver='auto') |
参数
n_components
指定降维后的维度whiten
是否进行白化操作svd_solver
指定奇异值分解的方法
auto
arpack 使用scipy库中的sparse SVD实现
full 传统意义上的SVD,使用scipy库实现
randomized 一般适用于数据量大维度高,同时主成分数目比例低
属性
n_components_
主成分有多少元素components_
主成分数组explained_variance_
降维后各主成分的方差值,值越大,对应的主成分越重要expalined_variance_ratio
降维后各主成分的方差值占总方差值的比例,值越大,对应的主成分越重要
方法
fit(X)
在X上训练模型transform(X)
执行降维fit-tramsform(X)
训练模型并降维
KPCA 核化PCA
1 | sklearn.decomposition.KernelPCA(n_components=None,kernel='linear',gamma=None,degree=3,coef0=1,tol=0,max_iter=None,remove_zero_eig=False,n_jobs=1) |
参数
gamma
指定poly
和rbf
的系数,选择其他核函数时,默认特征总数的倒数degree
核函数poly
的p值coef0
核函数为poly``Sigmoid
时,指定r
值remove_zero_eig
若为True,则所有零特征值的组件都被删除
方法
fit(X)
transform(X)
fit_transform(X)
get_params()
获取本轮参数
LDA线性判别分析
1 | sklearn.discriminant_analysis.LinearDiscriminantAnalysis(n_componnents=None,solver='svd',tol=0.0001) |
参数
n_components
降维后的维度solver
矩阵特征分解采用的方法
svd 奇异值分解
lsqr 最小二乘
eigen 特征分解tol
用于SVD 求解器中的秩估计的阈值
属性
coef_
权重向量intercept_
covariance_
expalained_variance_ratio_
降维后各主成分的方差值占总方差值的比例,越大越重要means_
类别均值scalings_
对各个特征值按类别中心进行缩放xbar_
总体均值classes_
类别标签
方法
fit(X)
transform(X)
fit_transform(X)
predict(X)
预测类别predict_proba(X)
predict_log_proba(X)
score(X,y)
返回在测试集(X,y)上的平均准确度
LLE 局部线性嵌入
1 | sklearn.manifold.LocallyLinearEmbedding(n_neighbors=5,n_components=2,method='standard',neighbors_algorithm='auto') |
参数
n_neighbors
指定每个点要考虑的邻居数量n_components
指定需要降到的维度method
standard,hessian,modified,ltsa
neighbors_algorithm
最近邻搜索算法
auto,brute,kd_tree,ball_tree
方法
fit(X)
计算数据集X的嵌入向量fit_transform(X)
计算数据集X的嵌入向量并转换X
转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。可以在下面评论区评论,也可以邮件至 jaytp@qq.com
文章标题:sklearn-降维-PCA
本文作者:Espresso
发布时间:2019-12-05, 18:14:57
最后更新:2019-12-05, 19:10:19
原始链接:http://yoursite.com/2019/12/05/sklearn-PCA/版权声明: "署名-非商用-相同方式共享 4.0" 转载请保留原文链接及作者。