📝 机器学习教程

383篇技术文档
  鲸鱼优化算法 (WOA)

📅  最后修改于: 2022-05-13 01:58:09.210000        🧑  作者: Mango

鲸鱼优化算法 (WOA)获得目标函数的最佳值(最大值或最小值)的逐步过程称为优化算法。元启发式优化算法在工程应用中越来越流行,因为它们:依赖于相当简单的概念并且易于实现不需要梯度信息可以绕过局部最优可用于涵盖不同学科的广泛问题。许多学者和研究人员开发了几种元启发式方法来解决复杂/未解决的优化问题。示例:粒子群优化、灰狼优化、蚁群优化、遗传算法、布谷鸟搜索算法等。本文旨在介绍一种新的元启发式优化技术...

  毫升 |基于动量的梯度优化器介绍

📅  最后修改于: 2022-05-13 01:58:09.213000        🧑  作者: Mango

毫升 |基于动量的梯度优化器介绍梯度下降是机器学习框架中用于训练不同模型的一种优化技术。训练过程由一个目标函数(或误差函数)组成,它确定机器学习模型在给定数据集上的误差。在训练时,该算法的参数被初始化为随机值。随着算法的迭代,参数被更新,以便我们越来越接近函数的最优值。然而,自适应优化算法因其快速收敛的能力而越来越受欢迎。与传统的梯度下降相比,所有这些算法都使用来自先前迭代的统计数据来增强收敛过程...

  稳态遗传算法 (SSGA)

📅  最后修改于: 2022-05-13 01:58:09.216000        🧑  作者: Mango

稳态遗传算法 (SSGA)先决条件 -遗传算法SSGA 代表稳态遗传算法。它是稳态意味着没有世代。它不同于简单遗传算法,因为锦标赛选择不替换种群中被选中的个体,而是将被选中父母的孩子加入下一代,而是将两个父母和两个孩子中最好的两个个体加入到下一代中。重新加入到种群中,从而使种群规模保持不变。伪代码:生成大小为 N 的初始种群。评估每个解决方案的适合度/优度。选择 2 个解决方案作为父母,不要重复。...

  自相关的类型

📅  最后修改于: 2022-05-13 01:58:09.219000        🧑  作者: Mango

自相关的类型自相关:正如我们在本文中所讨论的,自相关被定义为对给定时间序列与该时间序列在连续时间段内的滞后版本之间相似程度的度量。自相关测量时间序列与该时间序列在不同时间间隔的滞后版本之间的相似程度。自相关函数:假设我们有一个时间序列 {Xt} ,其均值如下:和自协方差函数在 t=0 时,自相关函数定义为:自相关的值在完全负自相关的 -1 和完全正自相关的 1 之间变化。接近 0 的值称为无自相关...

  毫升 |登普斯特谢弗理论

📅  最后修改于: 2022-05-13 01:58:09.222000        🧑  作者: Mango

毫升 |登普斯特谢弗理论Dempster Shafer 理论是 Arthure P.Dempster 在 1967 年和他的学生 Glenn Shafer 在 1976 年提出的。这个理论被发布是因为以下原因:-贝叶斯理论只关注单一证据。贝叶斯概率无法描述无知。DST 是一种证据理论,它结合了问题的所有可能结果。因此,它用于解决不同的证据可能导致不同结果的问题。该模型中的不确定性由下式给出:-考虑...

  Inception-V4 和 Inception-ResNets

📅  最后修改于: 2022-05-13 01:58:09.225000        🧑  作者: Mango

Inception-V4 和 Inception-ResNetsInception V4 是在 2016 年由谷歌的研究人员结合 Inception-ResNet 引入的。 本文的主要目的是降低 Inception V3 模型的复杂性,从而在 ILSVRC 2015 挑战中提供最先进的准确性。本文还探讨了在 Inception 模型上使用残差网络的可能性。这个型号Inception-V4 的架构变...

  使用Python 的局部加权线性回归

📅  最后修改于: 2022-05-13 01:58:09.228000        🧑  作者: Mango

使用Python 的局部加权线性回归局部加权线性回归是结合基于 k 最近邻的机器学习的非参数回归方法。它被称为局部加权,因为对于查询点,函数是基于附近的数据来近似的,并且加权是因为贡献是由它与查询点的距离加权的。局部加权回归 (LWR) 是一种非参数、基于内存的算法,这意味着它明确保留训练数据并在每次进行预测时使用它。要解释局部加权线性回归,我们首先需要了解线性回归。线性回归可以用以下等式来解释:...

  XGBoost

📅  最后修改于: 2022-05-13 01:58:09.231000        🧑  作者: Mango

XGBoostXgBoost 代表 Extreme Gradient Boosting,由华盛顿大学的研究人员提出。它是一个用 C++ 编写的库,可优化梯度提升的训练。在了解 XGBoost 之前,我们首先需要了解树,尤其是决策树:决策树:决策树是一种类似流程图的树结构,其中每个内部节点表示对属性的测试,每个分支表示测试的结果,每个叶节点(终端节点)持有一个类标签。可以通过基于属性值测试将源集拆分...