- 机器学习基础
- ML - 首页
- ML - 简介
- ML - 入门
- ML - 基本概念
- ML - 生态系统
- ML - Python 库
- ML - 应用
- ML - 生命周期
- ML - 必备技能
- ML - 实现
- ML - 挑战与常见问题
- ML - 限制
- ML - 现实生活中的例子
- ML - 数据结构
- ML - 数学
- ML - 人工智能
- ML - 神经网络
- ML - 深度学习
- ML - 获取数据集
- ML - 分类数据
- ML - 数据加载
- ML - 数据理解
- ML - 数据准备
- ML - 模型
- ML - 监督学习
- ML - 无监督学习
- ML - 半监督学习
- ML - 强化学习
- ML - 监督学习与无监督学习
- 机器学习数据可视化
- ML - 数据可视化
- ML - 直方图
- ML - 密度图
- ML - 箱线图
- ML - 相关矩阵图
- ML - 散点矩阵图
- 机器学习统计学
- ML - 统计学
- ML - 均值、中位数、众数
- ML - 标准差
- ML - 百分位数
- ML - 数据分布
- ML - 偏度和峰度
- ML - 偏差和方差
- ML - 假设
- 机器学习中的回归分析
- ML - 回归分析
- ML - 线性回归
- ML - 简单线性回归
- ML - 多元线性回归
- ML - 多项式回归
- 机器学习中的分类算法
- ML - 分类算法
- ML - 逻辑回归
- ML - K近邻算法 (KNN)
- ML - 朴素贝叶斯算法
- ML - 决策树算法
- ML - 支持向量机
- ML - 随机森林
- ML - 混淆矩阵
- ML - 随机梯度下降
- 机器学习中的聚类算法
- ML - 聚类算法
- ML - 基于中心点的聚类
- ML - K均值聚类
- ML - K中心点聚类
- ML - 均值漂移聚类
- ML - 层次聚类
- ML - 基于密度的聚类
- ML - DBSCAN 聚类
- ML - OPTICS 聚类
- ML - HDBSCAN 聚类
- ML - BIRCH 聚类
- ML - 亲和传播
- ML - 基于分布的聚类
- ML - 聚合聚类
- 机器学习中的降维
- ML - 降维
- ML - 特征选择
- ML - 特征提取
- ML - 后退消除法
- ML - 前向特征构造
- ML - 高相关性过滤器
- ML - 低方差过滤器
- ML - 缺失值比率
- ML - 主成分分析
- 强化学习
- ML - 强化学习算法
- ML - 利用与探索
- ML - Q学习
- ML - REINFORCE 算法
- ML - SARSA 强化学习
- ML - 演员-评论家方法
- 深度强化学习
- ML - 深度强化学习
- 量子机器学习
- ML - 量子机器学习
- ML - 使用 Python 的量子机器学习
- 机器学习杂项
- ML - 性能指标
- ML - 自动工作流程
- ML - 提升模型性能
- ML - 梯度提升
- ML - 自举汇聚 (Bagging)
- ML - 交叉验证
- ML - AUC-ROC 曲线
- ML - 网格搜索
- ML - 数据缩放
- ML - 训练和测试
- ML - 关联规则
- ML - Apriori 算法
- ML - 高斯判别分析
- ML - 成本函数
- ML - 贝叶斯定理
- ML - 精度和召回率
- ML - 对抗性
- ML - 堆叠
- ML - 轮次
- ML - 感知器
- ML - 正则化
- ML - 过拟合
- ML - P值
- ML - 熵
- ML - MLOps
- ML - 数据泄露
- ML - 机器学习的货币化
- ML - 数据类型
- 机器学习 - 资源
- ML - 快速指南
- ML - 速查表
- ML - 面试问题
- ML - 有用资源
- ML - 讨论
机器学习速查表
这份**机器学习速查表**作为机器学习关键概念和常用算法的快速参考指南。它包括监督学习、无监督学习和强化学习等重要主题,以及线性回归和决策树等常用算法。这份**机器学习 (ML) 速查表**对任何对机器学习感兴趣的人都有价值。
目录
监督机器学习
监督机器学习是一种机器学习类型,它使用标记数据集训练算法以预测结果。
监督学习的主要目标是在执行多个训练数据实例后,使算法学习输入数据样本和相应输出之间的关联。
监督机器学习算法
监督学习算法分为两种类型的任务——分类和回归。下面,我们列出了常用的监督机器学习算法、它们的应用、优点和缺点。
算法 | 描述 | 应用 | 优点 | 缺点 |
---|---|---|---|---|
线性回归 | 基于输入和输出变量之间的线性关系预测连续数值。 | 预测房价、股票价格、销售额。 | 易于实现、可解释、高效。 | 对异常值敏感,假设线性关系。 |
逻辑回归 | 使用逻辑函数预测分类值(例如,二元分类)。 | 将电子邮件分类为垃圾邮件或非垃圾邮件,预测客户流失。 | 可解释、高效、可以处理分类特征。 | 容易过拟合,仅限于线性关系。 |
岭回归 | 正则化线性回归,在损失函数中添加惩罚项以防止过拟合。 | 回归任务,特征选择。 | 可以处理多重共线性,提高模型泛化能力。 | 需要调整正则化参数。 |
套索回归 | 正则化线性回归,在损失函数中添加惩罚项以鼓励稀疏性(特征选择)。 | 回归任务,特征选择。 | 可以处理多重共线性,执行特征选择。 | 可能会在特征选择中引入偏差。 |
K近邻算法 (KNN) | 根据训练数据集中其 k 个最近邻的大多数类别或平均值对新数据点的类别或值进行分类或预测。 | 分类、回归、推荐系统。 | 易于实现,不需要训练阶段,可以处理非线性关系。 | 对于大型数据集来说,计算成本可能很高,对距离度量和 k 值的选择敏感。 |
支持向量机 (SVMs) | 找到最佳超平面将数据点分成不同的类别。 | 图像分类、文本分类、异常检测。 | 对于高维数据有效,使用内核处理非线性关系。 | 对于大型数据集来说,计算成本可能很高,对异常值敏感。 |
决策树 | 创建一个树状模型,根据一系列规则做出决策。 | 分类、回归、预测建模。 | 易于理解和解释,可以处理数值和分类特征。 | 容易过拟合,对数据的小变化敏感。 |
随机森林 | 决策树的集合,结合多个模型以提高准确性和减少过拟合。 | 分类、回归、预测建模。 | 比单个决策树更准确,对噪声和异常值具有鲁棒性。 | 对于大型数据集来说,计算成本可能很高。 |
朴素贝叶斯 | 基于贝叶斯定理的概率分类器,假设特征独立。 | 文本分类、垃圾邮件过滤、情感分析。 | 易于实现、高效、可以处理分类和数值特征。 | 假设特征独立,这可能并不总是正确的。 |
梯度提升回归 | 一种集成方法,迭代训练弱模型以提高准确性。 | 回归、分类、预测建模。 | 高度准确,可以处理复杂的关系。 | 计算成本可能很高,需要仔细调整超参数。 |
XGBoost | 一个可扩展且高效的梯度提升框架。 | 回归、分类、排序。 | 高度准确、高效、可以处理大型数据集。 | 配置可能很复杂。 |
LightGBM 回归器 | 一个梯度提升框架,使用直方图和梯度提升进行高效训练。 | 回归、分类、排序。 | 比 XGBoost 更快,对于大型数据集高效。 | 在某些情况下,准确性可能略低于 XGBoost。 |
神经网络 (深度学习) | 具有多层的复杂模型,能够学习复杂的模式和关系。 | 图像分类、自然语言处理、语音识别。 | 高度准确,可以处理复杂的任务。 | 计算成本可能很高,需要仔细调整超参数。 |
无监督机器学习
无监督机器学习是一种机器学习类型,它在没有人工监督的情况下学习数据中的模式和结构。无监督学习使用机器学习算法分析数据并在未标记的数据集中发现潜在的模式。
无监督机器学习算法
无监督学习算法分为三类——聚类、关联和降维。下面,我们列出了常用的无监督机器学习算法、它们的应用、优点和缺点。
算法 | 描述 | 应用 | 优点 | 缺点 |
---|---|---|---|---|
K均值聚类 | 根据相似性将数据划分为 K 个簇。 | 客户细分、图像分割、异常检测。 | 易于实现、高效、可以处理大型数据集。 | 需要指定聚类数量,对初始化敏感。 |
层次聚类 | 创建聚类的层次结构,可以是凝聚的(自下而上)或分裂的(自上而下)。 | 客户细分、图像分割、异常值检测。 | 可以揭示层次结构,不需要指定聚类数量。 | 对于大型数据集,计算成本可能很高,对距离度量敏感。 |
主成分分析 (PCA) | 在保留最重要特征的同时降低数据的维度。 | 数据可视化、特征工程、降噪。 | 高效,可以揭示数据中的潜在模式。 | 在降维过程中可能会丢失一些信息。 |
奇异值分解 (SVD) | 将矩阵分解为其奇异值和向量。 | 数据分析、推荐系统、图像压缩。 | 可用于降维和特征提取。 | 对于大型矩阵,计算成本可能很高。 |
独立成分分析 (ICA) | 从混合观测中识别信号的独立来源。 | 盲源分离、信号处理。 | 可以分离混合信号,在语音识别等应用中很有用。 | 可能对初始化和关于源独立性的假设敏感。 |
高斯混合模型 (GMM) | 将数据建模为高斯分布的混合,假设每个聚类都是由高斯分布生成的。 | 聚类、密度估计、异常检测。 | 可以处理复杂的数据分布,灵活。 | 计算成本可能很高,对初始化敏感。 |
Apriori 算法 | 一种频繁项集挖掘算法,用于发现数据集中项之间的关联。 | 市场篮子分析、推荐系统。 | 有效地查找频繁项集,可用于关联规则挖掘。 | 可能不适用于具有许多项目的庞大数据集。 |
t-SNE | 一种非线性降维技术,保留局部结构。 | 数据可视化、聚类、异常检测。 | 有效地将高维数据可视化在低维空间中。 | 计算成本可能很高,对参数敏感。 |
UMAP | 另一种非线性降维技术,保留全局结构和局部关系。 | 数据可视化、聚类、异常检测。 | 通常比 t-SNE 更快且更具可扩展性,很好地保留了全局结构。 | 可能需要仔细调整参数。 |
强化学习
强化学习是一种机器学习类型,其中代理(通常是软件实体)通过执行操作和监控结果来训练以解释环境。对于每个好的动作,代理都会获得积极的反馈,对于每个坏的动作,代理都会获得负面的反馈。它受到动物从经验中学习的启发,根据其行动的后果做出决策。
强化学习算法
在本节中,我们列出了一些知名的强化学习算法、其应用、优点和缺点。
算法 | 描述 | 应用 | 优点 | 缺点 |
---|---|---|---|---|
Q 学习 | 一种离策略学习算法,学习最优动作值函数。 | 游戏博弈、机器人技术、控制系统。 | 易于实现,可以处理复杂的环境。 | 对于大型状态空间,计算成本可能很高。 |
SARSA | 一种在线策略学习算法,根据当前策略更新动作值函数。 | 游戏博弈、机器人技术、控制系统。 | 可以处理连续动作空间,适用于在线学习。 | 可能对探索-利用权衡敏感。 |
深度 Q 网络 (DQN) | 将深度学习与 Q 学习相结合,使用神经网络来逼近动作值函数。 | 雅达利游戏博弈、机器人技术、自动驾驶汽车。 | 可以处理具有大型状态和动作空间的复杂环境。 | 需要仔细调整超参数,计算成本可能很高。 |
策略梯度 | 直接优化策略函数以最大化奖励。 | 机器人技术、游戏博弈、自然语言处理。 | 可以处理连续动作空间,可能比基于值的的方法更有效率。 | 可能对噪声和不稳定性敏感。 |
行动者-评论家 | 结合基于策略和基于值的方法,同时使用策略函数和值函数。 | 机器人技术、游戏博弈、自然语言处理。 | 可能比纯基于策略或基于值的方法更稳定和高效。 | 需要仔细平衡探索和利用。 |
异步优势行动者-评论家 (A3C) | 行动者-评论家的并行版本,可以处理具有大型状态空间的复杂环境。 | 机器人技术、游戏博弈、自然语言处理。 | 可能比传统的行动者-评论家方法更有效率,适用于分布式训练。 | 实现起来可能很复杂。 |
广告