Some icons made by Freepik from www.flaticon.com is licensed by CC 3.0 BY
Some icons made by Icons8
所有课程资源,包括课程内容、图片、附件、代码等均为用户上传分享,平台仅提供存储和展示服务,如有侵权,请邮件联系 support@python123.org,告知网页链接和侵权证据,平台将及时删除
未得到原作者授权,禁止转载本站任何内容
All Rights Reserved.
Python123 是专注于为中国高等院校教学 Python 语言的而开发的一款学习工具网站。集 Python123 高等教师课题教学、日常考试、习题训练、计算生态以及计算机等级考试 Python 部分的指导模拟网站。Python123 还汇聚全国计算机教育名师的 Python 公开课免费视频教程,共同缔造 Python 这门编程语言的全新教学模式。
18年12月3日 · 北京理工大学-胡依梦 416 阅读
![]() |
为了解释这是它是如何工作的,我们以线性回归模型和普通最小二乘法来开始。
![]() |
给定一个数据集X,y,我们尝试着去找到一个现行模型h(x)去将残差平方和最小化,这个解决方案是由正规方程得到的。
线性模型只能拟合一条直线,但是多项式特征可以给它赋予更多强大的模型。接下来,我们首先要先确定和解决好这个特征的类型和数量问题。
局部加权回归里有个交替方法。我们来看看。
![]() |
给定一个数据集X,y,我们试图找到一个模型h(X)来最小化加权平方误差的残差和。权值由一个可以任意选择的核函数给出,在我的例子中,我选择了一个高斯核。这个解决方法与正规方程非常相似,只需插入对角权矩阵W。
这个特别的设置有什么有趣之处呢?通过调整元参数τ,你可以得到一个非线性模型,它与任何程度的多项式回归一样强。
如果你真的感兴趣的话,可以去吴家富的机器学习课程里找到关于内核到底做了些什么的完美解释。
这一次,笔记里还包含了互动的部分(详见原网址),你可以调整元参数τ,并实时观察其对模型的影响,祝开心!
About
Some icons made by Freepik from www.flaticon.com is licensed by CC 3.0 BY
Some icons made by Icons8
所有课程资源,包括课程内容、图片、附件、代码等均为用户上传分享,平台仅提供存储和展示服务,如有侵权,请邮件联系 support@python123.org,告知网页链接和侵权证据,平台将及时删除
未得到原作者授权,禁止转载本站任何内容
All Rights Reserved.
发送反馈
您可以向 support@python123.org 发送反馈邮件,我们会回复所有邮件
如果您在使用过程中发生异常,例如无法保存、无法提交、得分为 0 或者其它错误,
请将您遇到问题的 课程、单元、习题 信息以及您的联系方式发送到邮箱,我们会联系您进行处理
Tip: 您对问题的描述越清晰,我们的处理速度通常也越快
Python123 Version ( 更新)
版权声明联系我们: supportpython123.org
Python123 Development Team, All rights reserved.
苏ICP备16066778号-1
微信公众号
兼容性提示
您正在使用的 IE 浏览器,或部分浏览器的 IE 模式 访问本站
现阶段我们还无法提供对 IE 的完整支持
如果继续浏览可能遇到 排版混乱、部分功能无法正常使用 等错误
建议您使用 Chrome、Edge、Firefox、Safari 等现代浏览器访问