主要内容

模型建立与评估

特征选择、特征工程、模型选择、超参数优化、交叉验证、预测性能评估和分类精度对比测试

在构建高质量的预测分类模型时,选择正确的特征(或预测器)和调优超参数(未估计的模型参数)非常重要。

特征选择和超参数调优可以产生多个模型。你可以比较k-fold误分类率,受试者工作特征(ROC)曲线,或模型之间的混淆矩阵。或者,进行统计测试以检测一个分类模型是否显著优于另一个分类模型。

若要在训练分类模型之前设计新特征,请使用gencfeatures

要交互式地构建和评估分类模型,可以使用分类学习者应用程序。

若要自动选择具有调优超参数的模型,请使用fitcauto。该函数尝试选择具有不同超参数值的分类模型类型,并返回预期在新数据上表现良好的最终模型。使用fitcauto当您不确定哪些分类器类型最适合您的数据时。

要调优特定模型的超参数,请选择超参数值并使用这些值交叉验证模型。例如,要调优SVM模型,需要选择一组框约束和内核尺度,然后对每对值交叉验证模型。某些统计和机器学习工具箱™分类功能通过贝叶斯优化、网格搜索或随机搜索提供自动超参数调优。bayesopt,实现贝叶斯优化的主要函数,对于许多其他应用也足够灵活。看到贝叶斯优化工作流程

要解释分类模型,您可以使用石灰沙普利,plotPartialDependence

应用程序

分类学习者 训练模型使用监督机器学习对数据进行分类

功能

全部展开

fscchi2 使用卡方检验进行分类的单变量特征排序
fscmrmr 利用最小冗余最大相关性(MRMR)算法对分类特征进行排序
fscnca 利用邻域成分分析进行特征选择分类
oobPermutedPredictorImportance 对分类树的随机森林,用袋外预测器观测值的排列估计预测器重要性
predictorImportance 预测因子对分类树重要性的估计
predictorImportance 决策树分类集合中预测因子重要性的估计
sequentialfs 使用自定义准则进行序列特征选择
relieff 使用ReliefF或RReliefF算法对预测因子的重要性进行排序
gencfeatures 为分类执行自动化特征工程
描述 描述生成特性
变换 使用生成的特征转换新数据
fitcauto 自动选择超参数优化的分类模型
bayesopt 使用贝叶斯优化选择最优的机器学习超参数
hyperparameters 优化适合函数的变量描述
optimizableVariable 变量描述bayesopt或其他优化
crossval 使用交叉验证估计损失
cvpartition 分区数据进行交叉验证
重新分区 重新分区数据进行交叉验证
测验 测试交叉验证的指标
培训 交叉验证的训练指标

局部可解释模型不可知论解释(LIME)

石灰 局部可解释模型不可知解释(LIME)
适合 拟合局部可解释模型不可知论解释(LIME)的简单模型
情节 局部可解释模型不可知论解释(LIME)的绘图结果

沙普利值

沙普利 沙普利值
适合 计算查询点的Shapley值
情节 情节夏普利值

部分依赖

partialDependence 计算部分依赖
plotPartialDependence 创建偏依赖图(PDP)和个体条件期望图(ICE)

混淆矩阵

confusionchart 为分类问题建立混淆矩阵图
confusionmat 计算分类问题的混淆矩阵

受试者工作特征(ROC)曲线

rocmetrics 二元和多类分类器的接收机工作特征(ROC)曲线和性能指标
addMetrics 计算额外的分类性能指标
平均 计算多类问题中平均受试者工作特征(ROC)曲线的性能指标
情节 绘制接收机工作特性(ROC)曲线和其他性能曲线
perfcurve 接收机工作特征(ROC)曲线或其他性能曲线用于分类器输出
testcholdout 比较两种分类模型的预测精度
testckfold 通过重复交叉验证比较两种分类模型的准确性

对象

全部展开

FeatureSelectionNCAClassification 基于邻域分量分析的分类特征选择
FeatureTransformer 生成功能转换
BayesianOptimization 贝叶斯优化结果

属性

ConfusionMatrixChart属性 混淆矩阵图的外观和行为
ROCCurve属性 受试者工作特征(ROC)曲线的外观和行为

主题

分类学习者应用

特征选择

工程特性

  • 分类自动化特征工程
    使用gencfeatures在训练分类模型之前设计新的特征。在对新数据进行预测之前,对新数据集应用相同的特征转换。

自动模型选择

Hyperparameter优化

模型的解释

交叉验证

分类性能评价

Baidu
map