机器学习中用于特征选择的卡方检验


特征选择是机器学习的一个重要方面。它涉及从大量可用特征中选择一个子集,以提高模型的性能。特征选择很重要,因为它可以帮助降低模型的复杂性,提高模型的准确性,并使模型更易于解释。

一种常见的特征选择方法是卡方检验。本教程将解释什么是卡方检验,它是如何用于特征选择的,以及卡方特征选择的Python实现。

什么是卡方检验?

卡方检验是一种统计检验,用于确定两个分类变量之间是否存在显著关联。它基于卡方分布,这是一种描述平方标准正态偏差之和的分布的概率分布。

卡方检验用于检验两个分类变量之间没有关联的原假设。如果检验产生的p值小于预定的显著性水平,则拒绝原假设,并得出结论认为这两个变量之间存在显著关联。

卡方检验如何用于特征选择?

在机器学习中,卡方检验常用于特征选择。特征选择的目的是选择与预测任务最相关的特征子集。卡方检验可以用来确定每个特征与目标变量之间是否存在显著关联。与目标变量高度相关的特征更有可能对预测有用,而与目标变量无关的特征则不太可能对预测有用。

卡方检验通常是在列联表上进行的。列联表是一个显示分类变量在两个或多个组中的分布的表。在特征选择的背景下,列联表是通过计算每个特征在目标变量的每个类别中出现的次数来构建的。然后使用列联表计算卡方统计量和p值。

卡方统计量的计算公式如下:

$$\mathrm{X^{2}\:=\:\Sigma\:(O_{i}\:-\:E_{i})^{2}\:/\:E_{i}}$$

其中𝑂𝑖是列联表中第i个单元格的观察频数,𝐸𝑖是列联表中第i个单元格的期望频数。期望频数是通过将第i个单元格的行总计和列总计相乘,然后除以总计来计算的。

卡方统计量衡量列联表中每个单元格的观察频数与期望频数之间的差异。如果卡方统计量很大,则表明特征与目标变量之间存在显著关联。

p值根据卡方统计量和自由度计算得出。列联表的自由度计算公式为(r-1)(c-1),其中r是列联表的行数,c是列联表的列数。p值表示在原假设为真的情况下,观察到与观察到的卡方统计量一样极端的卡方统计量的概率。如果p值小于显著性水平,则拒绝原假设,并得出结论认为特征与目标变量之间存在显著关联。

示例

为了说明如何使用卡方检验进行特征选择,让我们考虑一个简单的例子。假设我们有一个包含患者的数据集,其二元分类任务是他们是否患有某种特定疾病。我们还有四个分类特征:年龄(40岁以下、40-60岁、60岁以上)、性别(男性、女性)、吸烟状况(从未吸烟、目前吸烟或曾经吸烟)和家族病史(阳性、阴性)。我们想要确定哪些特征与预测疾病状态最相关。

我们首先构建一个列联表,该表显示每个特征在目标变量的两个类别(疾病状态)中的分布。

患病 未患病
年龄 0-40 20 80
40-60 30 70
>60 40 60
性别 男性 30 70
女性 60 40
吸烟 从未吸烟 50 50
目前吸烟 20 80
曾经吸烟 40 60
家族病史 阳性 40 60
阴性 30 70

然后,我们可以使用前面提到的公式计算每个特征的卡方统计量和p值。

Age: Chi-Square = 15.67, p-value = 0.0004
Gender: Chi-Square = 24.5, p-value = 7.5e-07
Smoking: Chi-Square = 8.33, p-value = 0.0159
Family: Chi-Square = 2.5, p-value = 0.1131

从结果中,我们可以看到性别具有最高的卡方统计量和最低的p值,这表明它是预测疾病状态最相关的特征。年龄和吸烟状况也与疾病状态存在显著关联,而家族病史则没有。因此,我们可以选择年龄、性别和吸烟状况作为我们的预测任务的特征。

卡方特征选择的Python实现

现在让我们讨论如何在Python中执行卡方特征选择。我们将使用scikit-learn库,该库提供了一个名为SelectKBest的函数,用于根据给定的评分函数选择k个最佳特征。在本例中,评分函数将是卡方检验。

首先,让我们加载数据集并将其拆分为训练集和测试集:

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
# Load the dataset
data = load_iris()
# Split the dataset into training and testing sets
X_train, X_test, y_train, y_test = train_test_split(data.data, data.target,
test_size=0.3, random_state=0) 

接下来,我们需要从sklearn.feature_selection模块导入SelectKBest类和chi2函数:

from sklearn.feature_selection import SelectKBest, chi2 

然后,我们可以实例化SelectKBest类并指定要选择的特征数量。在这个例子中,我们将选择前两个特征:

# Instantiate the SelectKBest class
selector = SelectKBest(score_func=chi2, k=2)
# Fit the selector to the training data
selector.fit(X_train, y_train) 

然后,我们可以使用transform方法将训练集和测试集转换为仅包含所选特征:

# Transform the training and testing sets
X_train_selected = selector.transform(X_train)
X_test_selected = selector.transform(X_test) 

最后,我们可以在所选特征上训练模型并在测试集上评估其性能:

from sklearn.linear_model import LogisticRegression
from sklearn.metrics import accuracy_score
# Train a logistic regression model on the selected features
clf = LogisticRegression()
clf.fit(X_train_selected, y_train)
# Evaluate the performance of the model on the testing set
y_pred = clf.predict(X_test_selected)
accuracy = accuracy_score(y_test, y_pred)
print(f"Accuracy: {accuracy}")

输出

以下是其输出

Accuracy: 0.9777777777777777 

我们进行了卡方特征选择,并在所选特征上训练了一个模型。请注意,这只是如何在Python中执行卡方特征选择的一个示例,根据项目的具体要求,还有许多其他方法可以实现它。

结论

总之,卡方检验是一种强大且广泛使用的机器学习特征选择方法。它能够识别出与预测目标变量最相关的特征,从而有助于降低模型的复杂性,提高模型的准确性并增强模型的可解释性。

在本教程中,我们详细讨论了卡方检验,包括其数学基础、在特征选择中的应用以及使用scikit-learn库的Python实现。

更新于:2024年2月22日

浏览量:288

启动您的职业生涯

完成课程获得认证

开始学习
广告