找到 510 篇文章 算法

数据挖掘中的划分方法(K均值)

sudhir sharma
更新于 2024年1月22日 16:57:44

3K+ 次浏览

本文分解了 K-Means 的概念,这是一种普遍的划分方法,从其算法框架到优缺点,帮助您更好地理解这个复杂的工具。让我们深入了解 K-Means 聚类的迷人世界!K-Means 算法 K-Means 算法是一种基于质心的技术,常用于数据挖掘和聚类分析。K-Means 如何工作?K-Means 算法是数据挖掘划分方法中的主要参与者,它通过一系列清晰的步骤进行操作,从基本的数据分组到详细的聚类分析。初始化 - 指定要创建的聚类数“K”。这... 阅读更多

数据挖掘 - 数据清洗

Pranavnath
更新于 2023年10月23日 15:30:25

777 次浏览

介绍 数据挖掘是一种从海量数据集提取重要结论和知识的方法,它严重依赖于数据清洗。在发挥数据挖掘算法的潜力之前,确保输入数据准确、一致且全面非常重要。由于人为错误或系统故障(例如缺失值或格式错误),原始收集的数据通常包含错误。数据挖掘是指从大量原始或非结构化数据中发现模式、关系和有价值见解的过程。数据挖掘 – 数据清洗 数据清洗是任何成功的数据挖掘工作不可或缺的一部分,作为... 阅读更多

机器学习中的分组卷积是什么?

Bhavani Vangipurapu
更新于 2023年10月17日 10:59:43

216 次浏览

介绍 过滤器组的概念,也称为分组卷积,最早由 2012 年的 AlexNet 提出。这种创造性的解决方案是由需要使用两个 Nvidia GTX 580 GPU(每个 GPU 具有 1.5GB 内存)来训练网络而引起的。挑战:有限的 GPU 内存 在测试期间,AlexNet 的创建者发现它需要略低于 3GB 的 GPU RAM 才能进行训练。不幸的是,由于内存限制,他们无法有效地使用两个 GPU 来训练模型。过滤器组背后的动机 为了解决 GPU 内存问题,作者提出了过滤器组。通过优化模型的并行化... 阅读更多

机器学习中的短期记忆是如何工作的?

Bhavani Vangipurapu
更新于 2023年10月17日 10:32:14

83 次浏览

介绍 LSTM 代表长短期记忆,是循环神经网络 (RNN) 的一种高级形式,专门设计用于分析文本、语音和时间序列等顺序数据。与传统的 RNN 难以捕捉数据中的长期依赖关系不同,LSTM 擅长理解和预测序列中的模式。传统的 RNN 在处理序列数据时,在保留关键信息方面面临着重大挑战。这种限制阻碍了它们根据长期记忆做出准确预测的能力。LSTM 的开发是为了克服这一障碍,使网络能够存储和维护信息较长时间。一个... 阅读更多

机器学习中解释情景记忆和深度 Q 网络

Bhavani Vangipurapu
更新于 2023年10月17日 10:30:22

91 次浏览

介绍 近年来,深度神经网络 (DNN) 在强化学习算法方面取得了重大进展。然而,为了获得理想的结果,这些算法在样本效率方面存在不足。解决这一挑战的一种很有前景的方法是基于情景记忆的强化学习,它使智能体能够快速掌握最佳行动。情景记忆深度 Q 网络 (EMDQN) 是一种受生物学启发的 RL 算法,它利用情景记忆来增强智能体训练。研究表明,EMDQN 显着提高了样本效率,从而提高了发现有效策略的机会。它通过在 Atari 上实现最先进的性能,超过了常规 DQN 和其他基于情景记忆的 RL 算法... 阅读更多

概率密度估计和最大似然估计指南

Someswar Pal
更新于 2023年10月13日 08:33:27

205 次浏览

密度估计是机器学习和统计学的重要组成部分。这意味着获取一组数据的概率密度函数 (PDF)。它对于许多事情至关重要,例如查找异常值、将事物分组、构建模型和查找问题。本研究基于深度学习,探讨了所有测量旧密度和新密度的途径。传统密度估计方法 直方图 无论您是否需要快速了解您的数据收集是否完整,直方图都是最佳选择。它们采用数据范围并将其分解为称为“箱”的类别以确定... 阅读更多

理解稀疏 Transformer:步幅和固定分解注意力

Someswar Pal
更新于 2023年10月12日 11:02:13

258 次浏览

Transformer 模型在自然语言处理 (NLP) 领域取得了长足的进步,在许多任务中取得了最先进的结果。但是,Transformer 的计算复杂度和内存需求随着输入序列长度的增加而增加四倍。这使得快速处理长序列变得困难。研究人员已经开发了稀疏 Transformer,这是一种 Transformer 设计的扩展,它添加了稀疏注意力机制,以解决这些问题。本文探讨了稀疏 Transformer 的概念,重点介绍了步幅和固定分解注意力,这两种方法有助于使这些模型更有效率和有效。Transformer 回顾 在深入了解... 阅读更多

理解 AHA:人工海马体算法

Someswar Pal
更新于 2023年10月12日 10:58:17

67 次浏览

介绍 大脑是最复杂的器官,用于各种科学研究。人类大脑被研究,其原型被应用于人工智能 (AI) 和机器学习 (ML)。海马体是大脑的重要组成部分。它帮助我们学习、记忆和找到方向。研究人员试图创建一个可以复制 ML 系统中海马体功能和技能的人工海马体算法 (AHA)。本文讨论了 AHA、其机制、范围和局限性。人工海马体算法的动机 创建 AHA 的目标是提高... 阅读更多

如何在机器学习中解释稳态遗传算法 (SSGA)?

Someswar Pal
更新于 2023年10月12日 10:57:07

417 次浏览

稳态遗传算法 (SSGA) 经常用于机器学习和优化任务。它是一种基于种群的迭代搜索方法,其思想源于自然进化和遗传学。SSGA 使用一组可能的答案,表示为个体或染色体。以下是 SSGA 遗传算法的工作原理 初始化 - 算法首先创建一个称为初始种群的群体。每个个体都是解决当前问题的可能方案。大多数情况下,种群是根据我们对问题领域的了解随机生成或创建的。评估 - 每个… 阅读更多

什么是机器学习中的简单遗传算法 (SGA)?

Someswar Pal
更新于 2023年10月12日 10:55:16

226 次浏览

简单遗传算法 (SGA) 是机器学习和人工智能中一种流行的优化方法。SGA 以自然选择为模型,使用交叉和变异等遗传算子来创建候选解池。它们具有全局搜索能力,并且擅长解决复杂的优化问题。SGA 有助于解决组合问题,并且可以处理不可微的景观。由于其灵活且可靠的结构(可以通过更改参数进行调整),因此可以使用 SGA 找到最优或接近最优的解。本文深入探讨了 SGA 的基础知识、其优点和缺点、其擅长的领域,以及… 阅读更多

广告