Scikit Learn - 多项式朴素贝叶斯



这是另一个有用的朴素贝叶斯分类器。它假设特征是从简单的多项式分布中提取的。Scikit-learn 提供了sklearn.naive_bayes.MultinomialNB 来实现用于分类的多项式朴素贝叶斯算法。

参数

下表包含sklearn.naive_bayes.MultinomialNB 方法使用的参数 -

序号 参数及描述
1

alpha - 浮点数,可选,默认 = 1.0

它表示加性平滑参数。如果您选择 0 作为其值,则不会进行平滑。

2

fit_prior - 布尔值,可选,默认 = True

它告诉模型是否学习类先验概率。默认值为 True,但如果设置为 False,则算法将使用均匀先验。

3

class_prior - 类数组,大小 (n_classes,),可选,默认 = None

此参数表示每个类的先验概率。

属性

下表包含sklearn.naive_bayes.MultinomialNB 方法使用的属性 -

序号 属性及描述
1

class_log_prior_ - 数组,形状 (n_classes,)

它提供了每个类的平滑对数概率。

2

class_count_ - 数组,形状 (n_classes,)

它提供了每个类遇到的实际训练样本数量。

3

intercept_ - 数组,形状 (n_classes,)

这些是class_log_prior_的镜像,用于将 MultinomilaNB 模型解释为线性模型。

4

feature_log_prob_ - 数组,形状 (n_classes, n_features)

它给出了给定类别的特征的经验对数概率 $P\left(\begin{array}{c} features\arrowvert Y\end{array}\right)$。

5

coef_ - 数组,形状 (n_classes, n_features)

这些是 feature_log_prior_ 的镜像,用于将 MultinomilaNB 模型解释为线性模型。

6

feature_count_ - 数组,形状 (n_classes, n_features)

它提供了每个 (类,特征) 遇到的实际训练样本数量。

sklearn.naive_bayes. MultinomialNB 的方法与我们在 sklearn.naive_bayes.GaussianNB 中使用的方法相同。

实现示例

下面的 Python 脚本将使用sklearn.naive_bayes.GaussianNB 方法从我们的数据集中构建高斯朴素贝叶斯分类器 -

示例

import numpy as np
X = np.random.randint(8, size = (8, 100))
y = np.array([1, 2, 3, 4, 5, 6, 7, 8])

from sklearn.naive_bayes import MultinomialNB
MNBclf = MultinomialNB()
MNBclf.fit(X, y)

输出

MultinomialNB(alpha = 1.0, class_prior = None, fit_prior = True)

现在,一旦拟合,我们可以使用 predict() 方法预测新值,如下所示 -

示例

print((MNBclf.predict(X[4:5]))

输出

[5]
广告