先决条件:ML |线性回归
线性回归是一种监督型学习算法,用于计算输入(X)和输出(Y)之间的线性关系。
普通线性回归所涉及的步骤为:
Training phase: Compute to minimize the cost.
Predict output: for given query point ,
从下图可以明显看出,当X和Y之间存在非线性关系时,该算法不能用于进行预测。在这种情况下,将使用局部加权线性回归。
局部加权线性回归:
局部加权线性回归是一种非参数算法,也就是说,该模型不像常规线性回归那样学习固定的参数集。相当的参数为每个查询点分别计算 。在计算时 ,则对训练集中位于以下位置附近的点给予较高的“偏好” 比远离的点 。
修改后的成本函数为:
在哪里, 是与训练点相关的非负“权重” 。
为了位于更靠近查询点的位置 , 的价值很大,而躺在远离的价值是小。典型的选择是:
在哪里, 称为带宽参数,并控制随距离而下降
显然,如果是小接近1,如果大接近0。
因此,训练集点更靠近查询点贡献更多的成本比远离的点 。
例如 –
考虑一个查询点 = 5.0并让和是训练集中的两点,这样 = 4.9并且 = 3.0。
使用公式和 = 0.5:
因此,权重随着指数之间的距离呈指数下降和增加,因此预测的误差贡献也增加了成本。
因此,在计算时 ,我们更注重减少对于更靠近查询点的点(具有更大的 )。
局部加权线性回归涉及的步骤为:
Compute to minimize the cost.
Predict Output: for given query point ,
要记住的要点:
- 局部加权线性回归是一种监督学习算法。
- 它是一种非参数算法。
- 没有训练阶段。所有工作都在测试阶段/进行预测时完成。