局部加权回归算法
为了解释这是它是如何工作的,我们以线性回归模型和普通最小二乘法来开始。
给定一个数据集X,y,我们尝试着去找到一个现行模型h(x)去将残差平方和最小化,这个解决方案是由正规方程得到的。
线性模型只能拟合一条直线,但是多项式特征可以给它赋予更多强大的模型。接下来,我们首先要先确定和解决好这个特征的类型和数量问题。
局部加权回归里有个交替方法。我们来看看。
给定一个数据集X,y,我们试图找到一个模型h(X)来最小化加权平方误差的残差和。权值由一个可以任意选择的核函数给出,在我的例子中,我选择了一个高斯核。这个解决方法与正规方程非常相似,只需插入对角权矩阵W。
这个特别的设置有什么有趣之处呢?通过调整元参数τ,你可以得到一个非线性模型,它与任何程度的多项式回归一样强。
如果你真的感兴趣的话,可以去吴家富的机器学习课程里找到关于内核到底做了些什么的完美解释。
这一次,笔记里还包含了互动的部分(详见原网址),你可以调整元参数τ,并实时观察其对模型的影响,祝开心!
算法实现
测试