- 机器学习基础
- ML - 首页
- ML - 简介
- ML - 入门
- ML - 基本概念
- ML - 生态系统
- ML - Python 库
- ML - 应用
- ML - 生命周期
- ML - 所需技能
- ML - 实现
- ML - 挑战与常见问题
- ML - 限制
- ML - 现实生活中的例子
- ML - 数据结构
- ML - 数学
- ML - 人工智能
- ML - 神经网络
- ML - 深度学习
- ML - 获取数据集
- ML - 分类数据
- ML - 数据加载
- ML - 数据理解
- ML - 数据准备
- ML - 模型
- ML - 监督学习
- ML - 无监督学习
- ML - 半监督学习
- ML - 强化学习
- ML - 监督学习 vs. 无监督学习
- 机器学习数据可视化
- ML - 数据可视化
- ML - 直方图
- ML - 密度图
- ML - 箱线图
- ML - 相关矩阵图
- ML - 散点矩阵图
- 机器学习统计学
- ML - 统计学
- ML - 均值,中位数,众数
- ML - 标准差
- ML - 百分位数
- ML - 数据分布
- ML - 偏度和峰度
- ML - 偏差和方差
- ML - 假设
- ML 中的回归分析
- ML - 回归分析
- ML - 线性回归
- ML - 简单线性回归
- ML - 多元线性回归
- ML - 多项式回归
- ML 中的分类算法
- ML - 分类算法
- ML - 逻辑回归
- ML - K近邻 (KNN)
- ML - 朴素贝叶斯算法
- ML - 决策树算法
- ML - 支持向量机
- ML - 随机森林
- ML - 混淆矩阵
- ML - 随机梯度下降
- ML 中的聚类算法
- ML - 聚类算法
- ML - 基于中心的聚类
- ML - K均值聚类
- ML - K中心点聚类
- ML - 均值漂移聚类
- ML - 层次聚类
- ML - 基于密度的聚类
- ML - DBSCAN 聚类
- ML - OPTICS 聚类
- ML - HDBSCAN 聚类
- ML - BIRCH 聚类
- ML - 亲和传播
- ML - 基于分布的聚类
- ML - 凝聚层次聚类
- ML 中的降维
- ML - 降维
- ML - 特征选择
- ML - 特征提取
- ML - 后退消除法
- ML - 前向特征构造
- ML - 高相关性过滤器
- ML - 低方差过滤器
- ML - 缺失值比率
- ML - 主成分分析
- 强化学习
- ML - 强化学习算法
- ML - 利用与探索
- ML - Q学习
- ML - REINFORCE 算法
- ML - SARSA 强化学习
- ML - 演员-评论家方法
- 深度强化学习
- ML - 深度强化学习
- 量子机器学习
- ML - 量子机器学习
- ML - 使用 Python 的量子机器学习
- 机器学习杂项
- ML - 性能指标
- ML - 自动工作流程
- ML - 提升模型性能
- ML - 梯度提升
- ML - 自举汇聚 (Bagging)
- ML - 交叉验证
- ML - AUC-ROC 曲线
- ML - 网格搜索
- ML - 数据缩放
- ML - 训练和测试
- ML - 关联规则
- ML - Apriori 算法
- ML - 高斯判别分析
- ML - 成本函数
- ML - 贝叶斯定理
- ML - 精度和召回率
- ML - 对抗性
- ML - 堆叠
- ML - 轮次
- ML - 感知器
- ML - 正则化
- ML - 过拟合
- ML - P值
- ML - 熵
- ML - MLOps
- ML - 数据泄露
- ML - 机器学习的盈利化
- ML - 数据类型
- 机器学习 - 资源
- ML - 快速指南
- ML - 速查表
- ML - 面试问题
- ML - 有用资源
- ML - 讨论
机器学习 - 低方差过滤
低方差过滤器是一种用于机器学习的特征选择技术,用于识别并从数据集中删除低方差特征。此技术用于通过减少用于训练模型的特征数量来提高模型的性能,并去除几乎没有或没有区分能力的特征。
低方差过滤器通过计算数据集中每个特征的方差并删除方差低于某个阈值的特征来工作。这样做是因为方差低的特征几乎没有或没有区分能力,并且不太可能用于预测目标变量。
实施低方差过滤器的步骤如下:
计算数据集中每个特征的方差。
为特征的方差设置阈值。
删除方差低于阈值的特征。
使用剩余的特征训练机器学习模型。
示例
以下是在 Python 中实施低方差过滤器的示例:
# Importing the necessary libraries import pandas as pd import numpy as np # Load the diabetes dataset diabetes = pd.read_csv(r'C:\Users\Leekha\Desktop\diabetes.csv') # Define the predictor variables (X) and the target variable (y) X = diabetes.iloc[:, :-1].values y = diabetes.iloc[:, -1].values # Compute the variance of each feature variances = np.var(X, axis=0) # Set the threshold for the variance of the features threshold = 0.1 # Find the indices of the low variance features low_var_indices = np.where(variances < threshold) # Remove the low variance features from the dataset X_filtered = np.delete(X, low_var_indices, axis=1) # Print the shape of the filtered dataset print('Shape of the filtered dataset:', X_filtered.shape)
输出
执行此代码时,将生成以下输出:
Shape of the filtered dataset: (768, 8)
低方差过滤器的优点
以下是使用低方差过滤器的优点:
减少过拟合 - 低方差过滤器可以通过去除对预测目标变量贡献不大的特征来帮助减少过拟合。
节省计算资源 - 由于特征较少,因此减少了训练机器学习模型所需的计算资源。
提高模型性能 - 通过去除低方差特征,低方差过滤器可以提高机器学习模型的性能。
简化模型 - 由于特征较少,因此模型更容易解释和理解。
低方差过滤器的缺点
以下是使用低方差过滤器的缺点:
信息丢失 - 低方差过滤器可能导致信息丢失,因为它会删除可能包含重要信息的特征。
影响非线性关系 - 低方差过滤器假设特征之间的关系是线性的。对于特征之间关系是非线性的数据集,它可能无法正常工作。
对因变量的影响 - 删除低方差特征有时会对因变量产生负面影响,尤其是在这些特征对于预测因变量很重要的情况下。
选择偏差 - 如果低方差过滤器删除了对预测因变量很重要的特征,则可能会引入选择偏差。
广告