如何使用 Python 进行集成学习?


集成学习是一种机器学习技术,它结合多个模型的预测结果来提高模型的整体性能。集成学习的思想是独立地训练多个模型,然后结合它们的预测结果来做出最终预测。这种方法可以比使用单个模型获得更好的性能,因为它可以减少过拟合并提高模型的泛化能力。

集成学习广泛应用于机器学习领域,并在许多应用中取得了成功,包括图像分类、语音识别和自然语言处理。它是一个强大的工具,可以提高机器学习模型的性能,在解决机器学习问题时值得考虑。

在本教程中,我们将讨论四种集成学习方法,即**Bagging、Boosting、Stacking**和**Voting**,以及它们在 Python 编程语言中的实现。

Bagging

Bagging 是一种集成学习方法,其中多个模型在数据的不同子集上进行训练,最终预测结果是通过对所有模型的预测结果进行平均获得的。一种流行的 Bagging 算法是**随机森林**,它在数据的每个子集上训练一棵决策树。

在 Python 中,可以使用 `sklearn.ensemble` 模块中的 `RandomForestClassifier` 或 `RandomForestRegressor` 类来训练随机森林模型。

Python 实现

下面是一个使用 Bagging 集成方法和随机森林算法在 Iris 数据集上进行操作的示例,该数据集包含关于三种鸢尾花物种的信息。

首先,让我们加载必要的库和数据集:

import pandas as pd
from sklearn.model_selection import train_test_split

# Load the dataset
df = pd.read_csv(r'C:\Users\Leekha\Desktop\ML Datasets\iris.csv')

# Split the data into features and target
X = df.drop('Species', axis=1)
y = df['Species']

# Split the data into training and test sets
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

接下来,让我们创建基础模型。我们将使用 `sklearn.ensemble` 模块中的 `RandomForestClassifier` 类来创建基础模型:

from sklearn.ensemble import RandomForestClassifier
# Create the base model
base_model = RandomForestClassifier(random_state=42)

现在,让我们使用 `sklearn.ensemble` 模块中的 `BaggingClassifier` 类创建 Bagging 集成:

from sklearn.ensemble import BaggingClassifier

# Create the bagging ensemble
ensemble = BaggingClassifier(base_estimator=base_model, n_estimators=10)

最后,让我们在训练数据上训练集成模型,并在测试数据上进行预测:

# Train the ensemble on the training data
ensemble.fit(X_train, y_train)

# Make predictions on the test data
y_pred = ensemble.predict(X_test)

为了评估集成的性能,我们可以使用 `sklearn.metrics` 模块中的 `classification_report` 函数,该函数将打印每个类别的精度、召回率和 F1 分数:

from sklearn.metrics import classification_report

# Print the classification report
print(classification_report(y_test, y_pred))

这将打印 Bagging 集成在测试数据上的以下评估指标。

              precision    recall  f1-score   support

      setosa       1.00      1.00      1.00        11
  versicolor       0.92      1.00      0.96        10
   virginica       1.00      0.91      0.95        11

    accuracy                           0.97        32
   macro avg       0.97      0.97      0.97        32
weighted avg       0.97      0.97      0.97        32

Boosting

Boosting 是一种集成学习方法,其中多个模型按顺序进行训练,每个模型都试图纠正前一个模型的错误。一种流行的 Boosting 算法是梯度提升,它在数据上训练一系列决策树。在 Python 中,可以使用 `sklearn.ensemble` 模块中的 `GradientBoostingClassifier` 或 `GradientBoostingRegressor` 类来训练梯度提升模型。

Python 实现

下面是一个使用 Boosting 集成方法和 AdaBoost 算法在 Iris 数据集上进行操作的示例:

首先,让我们加载必要的库和数据集:

import pandas as pd
from sklearn.model_selection import train_test_split

# Load the dataset
df = pd.read_csv(r'C:\Users\Leekha\Desktop\ML Datasets\iris.csv')

# Split the data into features and target
X = df.drop('species', axis=1)
y = df['species']

# Split the data into training and test sets
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

接下来,让我们创建基础模型。我们将使用 `sklearn.tree` 模块中的 `DecisionTreeClassifier` 类来创建基础模型:

from sklearn.tree import DecisionTreeClassifier

# Create the base model
base_model = DecisionTreeClassifier(random_state=42)

现在,让我们使用 `sklearn.ensemble` 模块中的 `AdaBoostClassifier` 类创建 Boosting 集成:

from sklearn.ensemble import AdaBoostClassifier

# Create the boosting ensemble
ensemble = AdaBoostClassifier(base_estimator=base_model, n_estimators=10)

最后,让我们在训练数据上训练集成模型,并在测试数据上进行预测:

# Train the ensemble on the training data
ensemble.fit(X_train, y_train)

# Make predictions on the test data
y_pred = ensemble.predict(X_test)

为了评估集成的性能,我们可以使用 `sklearn.metrics` 模块中的 `classification_report` 函数,该函数将打印每个类别的精度、召回率和 F1 分数:

from sklearn.metrics import classification_report

# Print the classification report
print(classification_report(y_test, y_pred))

这将打印 Boosting 集成在测试数据上的评估指标:

 precision    recall  f1-score   support

      setosa       1.00      1.00      1.00        11
  versicolor       0.92      1.00      0.96        10
   virginica       1.00      0.91      0.95        11

    accuracy                           0.97        32
   macro avg       0.97      0.97      0.97        32
weighted avg       0.97      0.97      0.97        32

Stacking

Stacking 是一种集成学习方法,其中多个模型在相同的数据上进行训练,这些模型的预测结果被用作输入来训练一个更高层次的模型。在 Python 中,可以使用 `mlxtend.classifier` 模块中的 `StackingClassifier` 或 `StackingRegressor` 类来训练 Stacking 模型。

Python 实现

下面是一个使用 Stacking 集成方法和决策树作为更高层次的模型在 Iris 数据集上进行操作的示例,其中包含输出结果。我们将使用逻辑回归和支持向量机作为基础模型。

首先,让我们加载必要的库和数据集:

import pandas as pd
from sklearn.model_selection import train_test_split

# Load the dataset
df = pd.read_csv('iris.csv')

# Split the data into features and target
X = df.drop('species', axis=1)
y = df['species']

# Split the data into training and test sets
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

接下来,让我们创建基础模型和更高层次的模型。我们将分别使用 `sklearn.linear_model` 和 `sklearn.svm` 模块中的 `LogisticRegression` 和 `SVC` 类来创建基础模型,并使用 `sklearn.ensemble` 模块中的 `RandomForestClassifier` 类来创建更高层次的模型:

from mlxtend.classifier import StackingClassifier
from sklearn.ensemble import RandomForestClassifier
from sklearn.linear_model import LogisticRegression
from sklearn.svm import SVC

# Create the base models
logistic_regression = LogisticRegression(random_state=42)
svm = SVC(random_state=42)

# Create the higher-level model
dt = RandomForestClassifier(random_state=42)

现在,让我们使用 `mlxtend.classifier` 模块中的 `StackingClassifier` 类创建 Stacking 集成:

# Create the stacking ensemble
ensemble = StackingClassifier(
   classifiers=[logistic_regression, svm], 
   meta_classifier=dt, use_probas=True, average_probas=False
)

最后,让我们在训练数据上训练集成模型,并在测试数据上进行预测:

# Train the ensemble on the training data
ensemble.fit(X_train, y_train)

# Make predictions on the test data
y_pred = ensemble.predict(X_test)

为了评估集成的性能,我们可以使用 `sklearn.metrics` 模块中的 `classification_report` 函数,该函数将打印每个类别的精度、召回率和 F1 分数:

from sklearn.metrics import classification_report

# Print the classification report
print(classification_report(y_test, y_pred))

这将打印 Stacking 集成在测试数据上的评估指标:

precision    recall  f1-score   support

      setosa       1.00      1.00      1.00        11
  versicolor       0.90      0.90      0.90        10
   virginica       0.91      0.91      0.91        11

    accuracy                           0.93        32
   macro avg       0.93      0.93

Voting

Voting 是一种集成学习方法,其中多个模型在相同的数据上进行训练,最终预测结果是通过多数投票获得的。在 Python 中,可以使用 `sklearn.ensemble` 模块中的 `VotingClassifier` 类来训练 Voting 集成模型。

Python 实现

下面是一个使用 Voting 集成方法和逻辑回归、支持向量机和决策树作为基础模型在 Iris 数据集上进行操作的示例。

首先,让我们加载必要的库和数据集:

import pandas as pd
from sklearn.model_selection import train_test_split

# Load the dataset
df = pd.read_csv('iris.csv')

# Split the data into features and target
X = df.drop('species', axis=1)
y = df['species']

# Split the data into training and test sets
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

接下来,让我们创建基础模型。我们将分别使用 `sklearn.linear_model`、`sklearn.svm` 和 `sklearn.tree` 模块中的 `LogisticRegression`、`SVC` 和 `DecisionTreeClassifier` 类来创建基础模型:

from sklearn.linear_model import LogisticRegression
from sklearn.svm import SVC
from sklearn.tree import DecisionTreeClassifier

# Create the base models
logistic_regression = LogisticRegression(random_state=42)
svm = SVC(random_state=42)
dt = DecisionTreeClassifier(random_state=42)

现在,让我们使用 `sklearn.ensemble` 模块中的 `VotingClassifier` 类创建 Voting 集成:

from sklearn.ensemble import VotingClassifier

# Create the voting ensemble
ensemble = VotingClassifier(estimators=[('lr', logistic_regression), 
   ('svm', svm), 
   ('dt', dt)], voting='hard')

最后,让我们在训练数据上训练集成模型,并在测试数据上进行预测:

# Train the ensemble on the training data
ensemble.fit(X_train, y_train)

# Make predictions on the test data
y_pred = ensemble.predict(X_test)

为了评估集成的性能,我们可以使用 `sklearn.metrics` 模块中的 `classification_report` 函数,该函数将打印每个类别的精度、召回率和 F1 分数:

from sklearn.metrics import classification_report

# Print the classification report
print(classification_report(y_test, y_pred))

这将打印 Voting 集成在测试数据上的评估指标:

precision    recall  f1-score   support

      setosa       1.00      1.00      1.00        11
  versicolor       0.92      1.00      0.96        10
   virginica       1.00      0.91      0.95        11

    accuracy                           0.97        32
   macro avg       0.97      0.97      0.97        32
weighted avg       0.97      0.97      0.97        32

结论

在本教程中,我们解释了如何使用 Python 进行集成学习,并提供了在 Iris 数据集上使用 Bagging、Boosting 和 Stacking 等各种方法的示例。

我们演示了集成学习如何比使用单个模型获得更好的性能,并且可以作为提高机器学习模型性能的有用技术。

更新于:2024年2月20日

144 次浏览

启动您的职业生涯

通过完成课程获得认证

开始学习
广告