主要内容

预测

类:FeatureSelectionNCAClassification

使用邻域成分分析(NCA)分类器预测响应

语法

[label,postprobs,classnames] = predict(mdl,X)

描述

标签postprobs一会预测,预测mdlX计算预测的标签,标签,对应的行X,使用模型mdl

输入参数

全部展开

邻域成分分析模型用于分类,指定为FeatureSelectionNCAClassification对象。

预测变量值,指定为n——- - - - - -p矩阵,n观察的次数和p是预测变量的数量。

数据类型:|

输出参数

全部展开

的行对应的预测类标签X,作为类别、逻辑或数字向量返回,这是长度字符向量的单元格数组n的字符数组n行。n是观测的数量。的类型标签Y用于训练。

后验概率,返回为ann——- - - - - -c矩阵,n观察的次数和c是类的数量。后验概率,postprobs(我,:),表示观察值的成员X(我,:)从第一课到第二课c

与后验概率对应的类名,作为字符向量的单元格数组返回。的一列对应的类名是每个字符向量postprobs

例子

全部展开

加载样例数据。

负载(“twodimclassdata.mat”);

该数据集使用[1]中描述的方案进行模拟。这是一个二维的两类分类问题。第一类(类-1)的数据来自两个二元正态分布N (\ mu_1 \σ)美元N (\ mu_2 \σ)美元等概率,其中$\mu_1 = [-0.75,-1.5]$$\mu_2 = [0.75,1.5]$,$\Sigma = I_2$.类似地,来自第二类(第一类)的数据来自两个二元正态分布N (\ mu_3 \σ)美元N (\ mu_4 \σ)美元等概率,其中$\mu_3 = [1.5,-1.5]$$\mu_4 = [-1.5,1.5]$,$\Sigma = I_2$.用于创建此数据集的正态分布参数导致数据中的集群比[1]中使用的数据更紧密。

创建一个按类分组的数据散点图。

图gscatter(X(:,1),X(:,2),y)x1的) ylabel (“x2”

添加100个不相关的功能X美元.首先从均值为0,方差为20的正态分布中生成数据。

n = size(X,1);rng (“默认”) XwithBadFeatures = [X,randn(n,100)*sqrt(20)];

规范化数据,使所有点都在0到1之间。

XwithBadFeatures = bsxfun(@rdivide,...bsxfun (@minus XwithBadFeatures, min (XwithBadFeatures [], 1)),...范围(XwithBadFeatures, 1));X = XwithBadFeatures;

使用默认值为数据拟合邻域组件分析(NCA)模型λ(正则化参数,\λ美元)值。使用LBFGS求解器并显示收敛信息。

ncaMdl = fscnca(X,y,“FitMethod”“准确”“详细”, 1...“规划求解”“lbfgs”);
o求解器= LBFGS, HessianHistorySize = 15,LineSearchMethod = weakwolfe  |====================================================================================================| | ITER | |娱乐价值规范研究生| |规范一步曲线|γ|α|接受  | |====================================================================================================| | 0 | 9.519258 e 03 e-02 | 1.494 | 0.000 e + 00 | | 4.015 e + 01 | 0.000 e + 00 |是| | 1 | -3.093574 e-01 e 03 | 7.186 | 4.018 e + 00 |好01 | 1.000 | 8.956 e + e + 00 |是| | 2 | -4.809455 e-01 |4.444 e 03 | 7.123 e + 00 |好01 | 1.000 | 9.943 e + e + 00 |是| | 3 | -4.938877 e-01 e 03 | 3.544 | 1.464 e + 00 |好01 | 1.000 | 9.366 e + e + 00 |是| | 4 | -4.964759 e-01 e 03 | 2.901 | 6.084 e-01 |好e + 02 | 1.554 | 1.000 e + 00 |是| | 5 | -4.972077 e-01 e 03 | 1.323 | 6.129 e-01 |好e + 02 | 1.195 | 5.000 e-01 |是| | 6 | -4.974743 e-01 e-04 | 1.569 | 2.155 e-01 |好e + 02 | 1.003 | 1.000 e + 00 |是| | 7 | -4.974868 e-01 e-05 | 3.844 | 4.161 e-02 |好01 | 1.000 | 9.835 e + e + 00 |是| | 8 e-01 | -4.974874 | 1.417 e-05 |1.073e-02 | OK | 1.043e+02 | 1.000e+00 | YES | | 9 | -4.974874e-01 | 4.893e-06 | 1.781e-03 | OK | 1.530e+02 | 1.000e+00 | 10 | -4.974874e-01 | 9.404e-08 | 8.947e-04 | OK | 1.670e+02 | 1.000e+00 | YES |最终梯度的无限范数= 9.404e-08最终步骤的两个范数= 8.947e-04, TolX = 1.000e-06最终梯度的相对无限范数= 9.404e-08, TolFun = 1.000e-06 EXIT:本地最小值发现。

绘制特征权重。不相关特性的权重应该非常接近于零。

图semilogx (ncaMdl。FeatureWeights,“罗”)包含(“功能指数”) ylabel (“功能重量”网格)

使用NCA模型预测类别并计算混淆矩阵。

ypred = predict(ncaMdl,X);ypred confusionchart (y)

混淆矩阵显示,在类-1中的40个数据被预测为属于类-1。类-1中的60个数据被预测为类1。类似地,第一类数据中的94个被预测来自第一类数据,其中6个被预测来自第一类数据。类-1的预测精度不高。

所有的权重都非常接近于零,这表明的值\λ美元用于训练的模型太大。当$\lambda \到\infty$时,所有特征权重趋近于零。因此,在大多数情况下调优正则化参数以检测相关特征是很重要的。

使用五次交叉验证进行调优\λ美元用于特征选择使用fscnca.调优\λ美元意味着找到\λ美元产生最小分类损失的值。调优\λ美元使用交叉验证:

1.将数据划分为五层。对于每一次折叠,cvpartition将五分之四的数据分配为训练集,将五分之一的数据分配为测试集。对于每一次折叠,cvpartition创建分层分区,其中每个分区具有大致相同比例的类。

CVP = cvpartition(y,“kfold”5);numtestsets = cvp.NumTestSets;lambdavvalues = linspace(0,2,20)/length(y);Lossvalues = 0(长度(lambdavalues),numtestsets);

2.训练邻域成分分析(nca)模型\λ美元在每个折叠中使用训练集的值。

3.使用nca模型计算折叠中相应测试集的分类损失。记录损失值。

4.重复这个过程的所有折叠和所有\λ美元值。

I = 1:长度(lambdavalues)K = 1:numtestsets从分区对象中提取训练集Xtrain = X(cvp.training(k),:);Ytrain = y(cvp.training(k),:);从分区对象中提取测试集Xtest = X(cvp.test(k),:);Ytest = y(cvp.test(k),:);使用训练集训练NCA模型进行分类ncaMdl = fscnca(Xtrain,ytrain,“FitMethod”“准确”...“规划求解”“lbfgs”“λ”lambdavalues(我));使用NCA计算测试集的分类损失%的模型lossvalues(i,k) = loss(ncaMdl,Xtest,ytest,...“LossFunction”“二次”);结束结束

画出折叠的平均损失值与\λ美元值。如果\λ美元与最小损失对应的值落在被测边界上\λ美元的取值范围\λ美元价值观应该重新考虑。

图绘制(lambdavalues,意味着(lossvalues, 2),“ro - - - - - -”)包含(“λ值”) ylabel (“损失值”网格)

找到\λ美元对应于最小平均损失的值。

[~,idx] = min(mean(lossvalues,2));查找索引最佳lambda = lambdavalues(idx)找到最好的lambda值
Bestlambda = 0.0037

用最好的方法使NCA模型适合所有的数据\λ美元价值。使用LBFGS求解器并显示收敛信息。

ncaMdl = fscnca(X,y,“FitMethod”“准确”“详细”, 1...“规划求解”“lbfgs”“λ”, bestlambda);
o求解器= LBFGS, HessianHistorySize = 15,LineSearchMethod = weakwolfe  |====================================================================================================| | ITER | |娱乐价值规范研究生| |规范一步曲线|γ|α|接受  | |====================================================================================================| | 0 | -1.246913 e-01 e-02 | 1.231 | 0.000 e + 00 | | 4.873 e + 01 | 0.000 e + 00 |是| | 1 | -3.411330 e-01 e 03 | 5.717 | 3.618 e + 00 |好e + 02 | 1.068 | 1.000 e + 00 |是| | 2 | -5.226111 e-01 |e-02 3.763 | 8.252 e + 00 |好01 | 1.000 | 7.825 e + e + 00 |是| | 3 | -5.817731 e-01 e 03 | 8.496 | 2.340 e + 00 |好| 5.591 e + 01 | 5.000 e-01 |是| | 4 | -6.132632 e-01 e 03 | 6.863 | 2.526 e + 00 |好01 | 1.000 | 8.228 e + e + 00 |是| | 5 | -6.135264 e-01 e 03 | 9.373 | 7.341 e-01 |好01 | 1.000 | 3.244 e + e + 00 |是| | 6 | -6.147894 e-01 e 03 | 1.182 | 2.933 e-01 |好01 | 1.000 | 2.447 e + e + 00 |是| | 7 | -6.148714 e-01 e-04 | 6.392 | 6.688 e-02 |好01 | 1.000 | 3.195 e + e + 00 |是| | 8 e-01 | -6.149524 | 6.521 e-04 |9.934 e-02 |好e + 02 | 1.236 | 1.000 e + 00 |是| | 9 | -6.149972 e-01 e-04 | 1.154 | 1.191 e-01 |好e + 02 | 1.171 | 1.000 e + 00 |是| | 10 | -6.149990 e-01 e-05 | 2.922 | 1.983 e-02 |好01 | 1.000 | 7.365 e + e + 00 |是| | 11 | -6.149993 e-01 e-05 | 1.556 | 8.354 e 03 |好e + 02 | 1.288 | 1.000 e + 00 |是| | 12 | -6.149994 e-01 e-05 | 1.147 | 7.256 e 03 |好e + 02 | 2.332 | 1.000 e + 00 |是| | 13 | -6.149995 e-01 e-05 | 1.040 | 6.781 e 03 |好e + 02 | 2.287 | 1.000 e + 00 |是| | 14 | -6.149996 e-01 e-06 | 9.015 | 6.265 e 03|OK | 9.974e+01 | 1.000e+00 | YES | | 15 | -6.149996e-01 | 7.763e-06 | 5.206e-03 | OK | 2.919e+02 | 1.000e+00 | YES | | 16 | -6.149997e-01 | 8.374e-06 | 1.679e-02 | OK | 6.878e+02 | 1.000e+00 | YES | | 17 | -6.149997e-01 | 9.387e-06 | 9.542e-03 | OK | 1.284e+02 | 5.000e-01 | YES | | 18 | -6.149997e-01 | 3.250e-06 | 5.114e-03 | OK | 1.225e+02 | 1.000e+00 | YES | | 19 | -6.149997e-01 | 1.574e-06 | 1.275e-03 | OK | 1.808e+02 | 1.000e+00 | YES | |====================================================================================================| | ITER | FUN VALUE | NORM GRAD | NORM STEP | CURV | GAMMA | ALPHA | ACCEPT | |====================================================================================================| | 20 | -6.149997e-01 | 5.764e-07 | 6.765e-04 | OK | 2.905e+02 | 1.000e+00 | YES | Infinity norm of the final gradient = 5.764e-07 Two norm of the final step = 6.765e-04, TolX = 1.000e-06 Relative infinity norm of the final gradient = 5.764e-07, TolFun = 1.000e-06 EXIT: Local minimum found.

绘制特征权重。

图semilogx (ncaMdl。FeatureWeights,“罗”)包含(“功能指数”) ylabel (“功能重量”网格)

fscnca正确地指出前两个特征是相关的,其余的不是。前两个特征不能单独提供信息,但当它们结合在一起时,可以形成一个准确的分类模型。

利用新模型对分类进行预测并计算精度。

ypred = predict(ncaMdl,X);ypred confusionchart (y)

混淆矩阵表明,类-1的预测精度有所提高。类-1中的88个数据被预测来自类-1,其中12个数据被预测来自类1。第一类数据中有92个被预测来自第一类数据,其中8个被预测来自第一类数据。

参考文献

[1]杨伟,王坤,左伟。高维数据的邻域成分特征选择。计算机杂志.2012年1月,第七卷第1期。

版本历史

在R2016b中引入

Baidu
map