- Scikit Learn 教程
- Scikit Learn - 首页
- Scikit Learn - 简介
- Scikit Learn - 建模过程
- Scikit Learn - 数据表示
- Scikit Learn - 估计器 API
- Scikit Learn - 约定
- Scikit Learn - 线性建模
- Scikit Learn - 扩展线性建模
- 随机梯度下降
- Scikit Learn - 支持向量机
- Scikit Learn - 异常检测
- Scikit Learn - K 近邻
- Scikit Learn - KNN 学习
- 使用朴素贝叶斯进行分类
- Scikit Learn - 决策树
- 随机决策树
- Scikit Learn - Boosting 方法
- Scikit Learn - 聚类方法
- 聚类性能评估
- 使用 PCA 进行降维
- Scikit Learn 有用资源
- Scikit Learn - 快速指南
- Scikit Learn - 有用资源
- Scikit Learn - 讨论
Scikit Learn - 多项式朴素贝叶斯
这是另一个有用的朴素贝叶斯分类器。它假设特征是从简单的多项式分布中提取的。Scikit-learn 提供了sklearn.naive_bayes.MultinomialNB 来实现用于分类的多项式朴素贝叶斯算法。
参数
下表包含sklearn.naive_bayes.MultinomialNB 方法使用的参数 -
序号 | 参数及描述 |
---|---|
1 | alpha - 浮点数,可选,默认 = 1.0 它表示加性平滑参数。如果您选择 0 作为其值,则不会进行平滑。 |
2 | fit_prior - 布尔值,可选,默认 = True 它告诉模型是否学习类先验概率。默认值为 True,但如果设置为 False,则算法将使用均匀先验。 |
3 | class_prior - 类数组,大小 (n_classes,),可选,默认 = None 此参数表示每个类的先验概率。 |
属性
下表包含sklearn.naive_bayes.MultinomialNB 方法使用的属性 -
序号 | 属性及描述 |
---|---|
1 | class_log_prior_ - 数组,形状 (n_classes,) 它提供了每个类的平滑对数概率。 |
2 | class_count_ - 数组,形状 (n_classes,) 它提供了每个类遇到的实际训练样本数量。 |
3 | intercept_ - 数组,形状 (n_classes,) 这些是class_log_prior_的镜像,用于将 MultinomilaNB 模型解释为线性模型。 |
4 | feature_log_prob_ - 数组,形状 (n_classes, n_features) 它给出了给定类别的特征的经验对数概率 $P\left(\begin{array}{c} features\arrowvert Y\end{array}\right)$。 |
5 | coef_ - 数组,形状 (n_classes, n_features) 这些是 feature_log_prior_ 的镜像,用于将 MultinomilaNB 模型解释为线性模型。 |
6 | feature_count_ - 数组,形状 (n_classes, n_features) 它提供了每个 (类,特征) 遇到的实际训练样本数量。 |
sklearn.naive_bayes. MultinomialNB 的方法与我们在 sklearn.naive_bayes.GaussianNB 中使用的方法相同。
实现示例
下面的 Python 脚本将使用sklearn.naive_bayes.GaussianNB 方法从我们的数据集中构建高斯朴素贝叶斯分类器 -
示例
import numpy as np X = np.random.randint(8, size = (8, 100)) y = np.array([1, 2, 3, 4, 5, 6, 7, 8]) from sklearn.naive_bayes import MultinomialNB MNBclf = MultinomialNB() MNBclf.fit(X, y)
输出
MultinomialNB(alpha = 1.0, class_prior = None, fit_prior = True)
现在,一旦拟合,我们可以使用 predict() 方法预测新值,如下所示 -
示例
print((MNBclf.predict(X[4:5]))
输出
[5]