ClassificationNaiveBayes
多类分类的朴素贝叶斯分类
描述
ClassificationNaiveBayes
是一个朴素贝叶斯多类学习分类器。训练有素的ClassificationNaiveBayes
分类器存储训练数据、参数值、数据分布和先验概率。使用这些分类器来执行诸如估计再替代预测等任务resubPredict
)和预测标签或新数据的后验概率(参见预测
).
创建
创建一个ClassificationNaiveBayes
对象的使用fitcnb
.
属性
预测性能
PredictorNames
- - - - - -预测的名字
字符向量的单元格数组
此属性是只读的。
预测器名称,指定为字符向量的单元格数组。元素的顺序PredictorNames
对应于预测器名称在训练数据中出现的顺序X
.
ExpandedPredictorNames
- - - - - -扩大了预测的名字
字符向量的单元格数组
此属性是只读的。
扩展的预测器名称,指定为字符向量的单元格数组。
如果模型对类别变量使用哑变量编码,则ExpandedPredictorNames
包括描述展开变量的名称。否则,ExpandedPredictorNames
和PredictorNames
.
CategoricalPredictors
- - - - - -分类预测指标
正整数向量|[]
此属性是只读的。
分类预测指标,指定为正整数的向量。CategoricalPredictors
包含指示相应的预测器是分类的索引值。索引值在1和之间p
,在那里p
用于训练模型的预测器的数量。如果没有一个预测器是绝对的,则此属性为空([]
).
数据类型:单
|双
CategoricalLevels
- - - - - -多元多项式的水平
单元阵列
此属性是只读的。
多变量多项级别,指定为单元格数组。的长度CategoricalLevels
等于预测器的数量(大小(X, 2)
).
的细胞CategoricalLevels
与指定为的预测器对应“mvmn”
在训练过程中,即它们具有多元多项式分布。不符合多元多项式分布的单元格为空([]
).
如果预测j多元多项式吗CategoricalLevels {
j}
是否所有不同的预测值的列表j在样例。南
S被移除独特的(X (:, j))
.
X
- - - - - -Unstandardized预测
数字矩阵
此属性是只读的。
用于训练朴素贝叶斯分类器的非标准化预测器,指定为数值矩阵。每一行的X
对应一个观察结果,每一列对应一个变量。该软件排除包含至少一个缺失值的观测值,并从Y中删除相应的元素。
预测分布属性
DistributionNames
- - - - - -预测分布
“正常”
(默认)|“内核”
|“锰”
|“mvmn”
|字符向量的单元格数组
此属性是只读的。
预测分布,指定为字符向量或字符向量的单元数组。fitcnb
使用预测器分布对预测器进行建模。该表列出了可用的发行版。
价值 | 描述 |
---|---|
“内核” |
核平滑密度估计 |
“锰” |
多项分布。如果您指定锰 ,则所有特征都是多项式分布的分量。因此,您不能包含“锰” 作为字符串数组或字符向量单元格数组的元素。有关详细信息,请参见多项式分布的估计概率. |
“mvmn” |
多元多项式分布。有关详细信息,请参见多元多项式分布的估计概率. |
“正常” |
正态(高斯)分布 |
如果DistributionNames
是1 -P单元格数组的字符向量,然后fitcnb
模型的特性j使用元素中的分布j单元格数组的。
例子:“锰”
例子:{“内核”、“正常”、“内核”}
数据类型:字符
|字符串
|细胞
DistributionParameters
- - - - - -分布参数估计
单元阵列
此属性是只读的。
分布参数估计,指定为单元格数组。DistributionParameters
是一个K——- - - - - -D单元格数组,其中单元格(k,d)包含预测器实例的分布参数估计d在课堂上k.行顺序对应于属性中类的顺序一会
,预测器的顺序对应于X
.
如果类k
没有观察到的预测j
,那么{分布
是空的(k
,j
}[]
).
的元素DistributionParameters
取决于预测器的分布。该表描述了DistributionParameters {
.k
,j
}
分布的预测j | 用于预测器的单元格数组的值j 和类k |
---|---|
内核 |
一个KernelDistribution 模型。使用单元格索引和点表示法显示属性。例如,要显示第三类中预测器2的核密度的估计带宽,使用Mdl.DistributionParameters {3 2} .Bandwidth . |
锰 |
一个表示该符号概率的标量j出现在课堂上k.有关详细信息,请参见多项式分布的估计概率. |
mvmn |
一个数字向量,包含每一个可能的预测水平的概率j在课堂上k.该软件根据预测器的所有唯一级别的排序顺序对概率进行排序j(存储在属性中CategoricalLevels ).有关更多细节,请参见多元多项式分布的估计概率. |
正常的 |
一个2乘1的数字向量。第一个元素是样本均值,第二个元素是样本标准差。有关更多细节,请参见正态分布估计 |
内核
- - - - - -内核流畅的类型
“正常”
(默认)|“盒子”
|单元阵列|……
此属性是只读的。
内核平滑器类型,指定为内核名称或内核名称的单元格数组。的长度内核
等于预测器的数量(大小(X, 2)
).内核{
j}
对应的预测j并包含描述内核平滑器类型的字符向量。如果单元格为空([]
),然后fitcnb
没有将核分布拟合到相应的预测器。
该表描述了支持的内核平滑器类型。我{u}表示指示函数。
价值 | 内核 | 公式 |
---|---|---|
“盒子” |
框(统一) |
|
“epanechnikov” |
Epanechnikov |
|
“正常” |
高斯 |
|
“三角形” |
三角 |
|
例子:“盒子”
例子:{“epanechnikov”、“正常”}
数据类型:字符
|字符串
|细胞
支持
- - - - - -内核平滑器密度支持
单元阵列
此属性是只读的。
内核平滑器密度支持,指定为单元格数组。的长度支持
等于预测器的数量(大小(X, 2)
).这些单元格表示fitcnb
应用核密度。如果单元格为空([]
),然后fitcnb
没有将核分布拟合到相应的预测器。
该表描述了支持的选项。
价值 | 描述 |
---|---|
1 × 2的数字行向量 | 例如,密度支持应用于指定的边界(L U) ,在那里l 而且U 分别是有限下界和上界。 |
“积极” |
密度支持适用于所有正实值。 |
“无限” |
密度支持适用于所有实值。 |
宽度
- - - - - -内核平滑窗口宽度
数字矩阵
此属性是只读的。
内核平滑器窗口宽度,指定为数值矩阵。宽度
是一个K——- - - - - -P矩阵,K数据中的类的数量,和P是预测因子的数量(大小(X, 2)
).
宽度(
核平滑窗宽是否为核平滑密度的预测器k
,j
)j
内部类k
.南
在列j
表明,fitcnb
不符合预测j
利用核密度。
响应特性
一会
- - - - - -独特的类名
分类数组|字符数组|逻辑向量|数值向量|字符向量的单元格数组
此属性是只读的。
训练模型中使用的惟一类名,指定为类别或字符数组、逻辑或数字向量或字符向量的单元格数组。
一会
具有与?相同的数据类型Y
,并已K字符数组的元素(或行)。(该软件将字符串数组视为字符向量的单元格数组。)
数据类型:分类
|字符
|字符串
|逻辑
|双
|细胞
ResponseName
- - - - - -响应变量名
特征向量
此属性是只读的。
响应变量名,指定为字符向量。
数据类型:字符
|字符串
Y
- - - - - -类标签
分类数组|字符数组|逻辑向量|数值向量|字符向量的单元格数组
此属性是只读的。
用于训练朴素贝叶斯分类器的类标签,指定为类别或字符数组、逻辑或数字向量或字符向量的单元格数组。每一行的Y
的对应行的观察分类X
.
Y
中的数据类型与Y
用于训练模型。(该软件将字符串数组视为字符向量的单元格数组。)
数据类型:单
|双
|逻辑
|字符
|字符串
|细胞
|分类
训练属性
ModelParameters
- - - - - -用于训练模型的参数值
对象
此属性是只读的。
用于训练的参数值ClassificationNaiveBayes
模型,指定为对象。ModelParameters
包含参数值,例如用于训练朴素贝叶斯分类器的名值对参数值。
访问的属性ModelParameters
用点表示法。例如,使用访问内核支持Mdl.ModelParameters.Support
.
NumObservations
- - - - - -训练观察次数
数字标量
此属性是只读的。
存储的训练数据中的训练观察数X
而且Y
,指定为数值标量。
之前
- - - - - -先验概率
数值向量
先验概率,用数字向量表示。元素的顺序之前
对应于的元素Mdl。一会
.
fitcnb
的先验概率归一化“之前”
名称-值对参数,因此总和(前)
=1
.
的价值之前
不影响最佳拟合模型。因此,可以进行重置之前
训练后Mdl
使用点符号。
例子:Mdl。Prior = [0.2 0.8]
数据类型:双
|单
W
- - - - - -观察权重
非负值的向量
此属性是只读的。
观察权值,指定为具有相同行数的非负值的向量Y
.中的每个条目W
中相应观察的相对重要性Y
.fitcnb
对象设置的值规范化“重量”
名称-值对参数,以便特定类中的权重之和为该类的先验概率。
分类器性能
成本
- - - - - -误分类代价
方阵
错误分类代价,指定为数值方阵,其中成本(i, j)
将一个点分类到类的成本是多少j
如果它真正的阶级是我
.行对应真正的类,列对应预测的类。的行和列的顺序成本
中的类的顺序一会
.
错误分类的代价矩阵在对角线上必须为零。
的价值成本
不影响培训。你可以重置成本
训练后Mdl
使用点符号。
例子:Mdl。成本=[0 0.5 ; 1 0]
数据类型:双
|单
HyperparameterOptimizationResults
- - - - - -超参数的交叉验证优化
BayesianOptimization
对象|表格
此属性是只读的。
超参数的交叉验证优化,指定为BayesianOptimization
对象或超参数和关联值的表。属性为非空“OptimizeHyperparameters”
在创建模型时,名称-值对参数是非空的。的价值HyperparameterOptimizationResults
取决于的设置优化器
字段HyperparameterOptimizationOptions
结构。
的价值优化器 场 |
的价值HyperparameterOptimizationResults |
---|---|
“bayesopt” (默认) |
对象的类BayesianOptimization |
“gridsearch” 或“randomsearch” |
使用的超参数表,观测到的目标函数值(交叉验证损失),以及观测值从最低(最好)到最高(最差)的排名 |
ScoreTransform
- - - - - -分类得分转换
“没有”
(默认)|“doublelogit”
|“invlogit”
|“ismax”
|分对数的
|函数处理|……
分类分数转换,指定为字符向量或函数句柄。该表总结了可用的字符向量。
价值 | 描述 |
---|---|
“doublelogit” |
1 / (1 +e2x) |
“invlogit” |
日志(x/ (1 -x)) |
“ismax” |
将分数最大的类的分数设置为1,并将所有其他类的分数设置为0 |
“分对数” |
1 / (1 +e- - - - - -x) |
“没有” 或“身份” |
x(转换) |
“标志” |
1x< 0 为0x= 0 1x> 0 |
“对称” |
2x- 1 |
“symmetricismax” |
将分数最大的类的分数设置为1,并将所有其他类的分数设置为-1 |
“symmetriclogit” |
2 / (1 +e- - - - - -x) - 1 |
对于一个MATLAB®函数或您定义的函数,使用其函数句柄进行评分转换。函数句柄必须接受一个矩阵(原始分数)并返回一个相同大小的矩阵(转换后的分数)。
例子:Mdl。ScoreTransform = '分对数'
数据类型:字符
|字符串
|函数处理
对象的功能
紧凑的 |
减小机器学习模型的尺寸 |
compareHoldout |
使用新数据比较两种分类模型的准确性 |
crossval |
交叉验证机器学习模型 |
边缘 |
朴素贝叶斯分类器的分类边 |
incrementalLearner |
将朴素贝叶斯分类模型转化为增量学习器 |
石灰 |
局部可解释模型不可知解释(LIME) |
logp |
朴素贝叶斯分类器的对数无条件概率密度 |
损失 |
朴素贝叶斯分类器的分类损失 |
保证金 |
朴素贝叶斯分类器的分类边值 |
partialDependence |
计算部分依赖 |
plotPartialDependence |
创建偏依赖图(PDP)和个体条件期望图(ICE) |
预测 |
使用朴素贝叶斯分类器对观测数据进行分类 |
resubEdge |
Resubstitution分类边缘 |
resubLoss |
Resubstitution分类损失 |
resubMargin |
Resubstitution分类保证金 |
resubPredict |
使用训练过的分类器对训练数据进行分类 |
沙普利 |
沙普利值 |
testckfold |
通过重复交叉验证比较两种分类模型的准确性 |
例子
训练朴素贝叶斯分类器
为Fisher的虹膜数据集创建一个朴素贝叶斯分类器。然后,在训练分类器后指定先验概率。
加载fisheriris
数据集。创建X
作为一个数字矩阵,其中包含了150个鸢尾的四个花瓣的测量值。创建Y
作为包含相应虹膜种类的字符向量的单元数组。
负载fisheririsX =量;Y =物种;
使用预测器训练朴素贝叶斯分类器X
和类标签Y
.fitcnb
假设每个预测器是独立的,默认使用正态分布拟合每个预测器。
Mdl = fitcnb (X, Y)
Mdl = ClassificationNaiveBayes ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'setosa' 'versicolor' 'virginica'} ScoreTransform: 'none' NumObservations: 150 DistributionNames: {'normal' 'normal' 'normal' 'normal'} DistributionParameters: {3x4 cell}属性,方法
Mdl
是一个培训ClassificationNaiveBayes
分类器。的一些Mdl
属性将出现在命令窗口中。
显示属性Mdl
使用点符号。例如,显示类名和先验概率。
Mdl。一会
ans =3 x1细胞{'setosa'} {'versicolor'} {'virginica'}
Mdl。Prior
ans =1×30.3333 0.3333 0.3333
类先验概率的顺序Mdl。Prior
中的类的顺序Mdl。一会
.默认情况下,先验概率是数据中各类的相对频率。或者,您可以在调用时设置先验概率fitcnb
通过使用'之前的
名称-值对的论点。
使用点表示法训练分类器后设置先验概率。例如,将先验概率分别设置为0.5、0.2和0.3。
Mdl。Prior = [0.5 0.2 0.3];
您现在可以使用这个经过训练的分类器来执行额外的任务。例如,您可以使用预测
或者使用交叉验证分类器crossval
.
训练和交叉验证朴素贝叶斯分类器
训练和交叉验证一个朴素贝叶斯分类器。fitcnb
默认情况下实现10次交叉验证。然后,估计交叉验证的分类误差。
加载电离层
数据集。去掉前两个稳定性预测因子。
负载电离层X = X(:, 3:结束);rng (“默认”)%的再现性
使用预测器训练和交叉验证一个朴素贝叶斯分类器X
和类标签Y
.推荐的做法是指定类名。fitcnb
假设每个预测因子都是条件正态分布的。
CVMdl = fitcnb (X, Y,“类名”,{“b”,‘g’},“CrossVal”,“上”)
CVMdl = ClassificationPartitionedModel CrossValidatedModel: 'NaiveBayes' PredictorNames: {1x32 cell} ResponseName: 'Y' NumObservations: 351 KFold: 10 Partition: [1x1 cvpartition] ClassNames: {'b' 'g'} ScoreTransform: 'none'属性,方法
CVMdl
是一个ClassificationPartitionedModel
交叉验证的朴素贝叶斯分类器。或者,你可以交叉验证一个训练有素的ClassificationNaiveBayes
通过传递它来建模crossval
.
显示第一次训练折叠CVMdl
使用点符号。
CVMdl。训练有素的{1}
ans = CompactClassificationNaiveBayes ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'b' 'g'} ScoreTransform: 'none' DistributionNames: {1x32 cell} DistributionParameters: {2x32 cell}属性,方法
每条折线都是CompactClassificationNaiveBayes
模型训练了90%的数据。
完整和紧凑的朴素贝叶斯模型不用于对新数据的预测。相反,使用它们通过传递来估计泛化误差CVMdl
来kfoldLoss
.
genError = kfoldLoss (CVMdl)
genError = 0.1852
平均而言,泛化误差约为19%。
可以为预测器指定不同的条件分布,或调优条件分布参数以减少泛化误差。
更多关于
Bag-of-Tokens模型
在令牌袋模型中,预测器的值j令牌出现的非负次数j在观察。多项模型中类别(箱)的数量是不同标记的数量(预测器的数量)。
朴素贝叶斯
朴素贝叶斯是一种对数据应用密度估计的分类算法。
该算法利用贝叶斯定理,并(天真地)假设预测器在给定类的条件下是独立的。尽管在实践中通常会违背假设,朴素贝叶斯分类器倾向于产生对有偏差类密度估计稳健的后验分布,特别是当后验为0.5(决策边界)时。[1].
朴素贝叶斯分类器将观察值分配给最可能的类(换句话说,即最大后验决策规则)。显式地,该算法执行以下步骤:
估计每个类内预测因子的密度。
根据贝叶斯规则建立后验概率模型。也就是说,对所有人来说k= 1,…,K,
地点:
Y是一个观察值的类索引对应的随机变量。
X1、……XP是观察结果的随机预测。
类索引的先验概率是多少k.
通过估计每个类别的后验概率对观察结果进行分类,然后将观察结果分配给产生最大后验概率的类别。
如果预测因子构成一个多项分布,则后验概率 在哪里 是多项分布的概率质量函数。
算法
正态分布估计
如果预测变量j
具有条件正态分布(见DistributionNames
属性),软件通过计算特定类别的加权平均值和加权标准差的无偏估计来拟合数据的分布。为每一个类k:
预测器的加权平均值j是
在哪里w我重量是用来观察的吗我.该软件将类中的权重规范化,使其之和为该类的先验概率。
预测器加权标准差的无偏估计量j是
在哪里z1 |k是类内权重的总和吗k而且z2 |k是类内权重的平方和吗k.
多项式分布的估计概率
如果所有的预测变量组成一个条件多项分布(参见DistributionNames
属性),该软件适用于使用Bag-of-Tokens模型.软件存储该token的概率j
出现在课堂上k
在房地产DistributionParameters {
.与添加剂平滑[2],估计概率为k
,j
}
地点:
令牌出现的加权次数是多少j在课堂上k.
nk是课堂上观察的次数吗k.
重量是用来观察的吗我.该软件将一个类中的权重规范化,使它们之和为该类的先验概率。
类中所有令牌出现的总加权次数是多少k.
多元多项式分布的估计概率
如果预测变量j
具有条件多元多项式分布(参见DistributionNames
属性),软件遵循以下步骤:
该软件收集的唯一级别的列表,存储在排序的列表
CategoricalLevels
,并将每一层视为一个箱子。预测器和类的每一个组合都是一个独立的多项随机变量。为每一个类k,该软件使用存储在中的列表来统计每个分类级别的实例
CategoricalLevels {
.j
}软件存储预测器的概率
j
在课堂上k
有水平l在房地产DistributionParameters {
,适用于所有级别k
,j
}CategoricalLevels {
.与添加剂平滑[2],估计概率为j
}地点:
哪个预测器的加权观察数是多少j=l在课堂上k.
nk是课堂上观察的次数吗k.
如果xij=l,否则为0。
重量是用来观察的吗我.该软件将一个类中的权重规范化,使它们之和为该类的先验概率。
米j不同水平的数量是预测指标吗j.
米k课堂上观察的次数是加权的吗k.
参考文献
[1]哈斯蒂,特雷弗,罗伯特·蒂布希拉尼,杰罗姆·弗里德曼。统计学习的要素:数据挖掘,推断和预测.第2版,施普林格统计系列。纽约,纽约:施普林格,2009。https://doi.org/10.1007/978 - 0 - 387 - 84858 - 7。
[2]曼宁,克里斯托弗·D,普拉巴卡尔·拉加万,辛里奇Schütze。信息检索导论纽约:剑桥大学出版社,2008。
扩展功能
C / c++代码生成
使用MATLAB®Coder™生成C和c++代码。
使用注意事项和限制:
的
预测
函数支持代码生成。当你训练一个朴素贝叶斯模型时
fitcnb
,适用以下限制。的值
“DistributionNames”
名称-值对参数不能包含“锰”
.的值
“ScoreTransform”
名值对参数不能是匿名函数。
有关更多信息,请参见代码生成简介.
版本历史
介绍了R2014b
MATLAB命令
你点击了一个对应于这个MATLAB命令的链接:
在MATLAB命令窗口中输入命令来运行该命令。Web浏览器不支持MATLAB命令。
您也可以从以下列表中选择网站:
如何获得最佳的网站性能
选择中国网站(中文或英文)以获得最佳的网站表现。其他MathWorks国家网站没有针对从您的位置访问进行优化。