继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

Machine Learning Notes-Linear Regression-Udacity

Alice嘟嘟
关注TA
已关注
手记 209
粉丝 75
获赞 279

什么是 Regression?

Regression 就是想找到因变量和自变量之间的关系,用一个函数来表示,并且可用这个函数来预测任意一个新的 x 会有怎样的 y 。

那么怎么找最好的那条线来表示 x 与 y 之间的关系呢?

用积分的方式。

怎么确定拟合线的阶数?

判断的标准,就是最小的 mean squared error,最好是为0.

下面这条线虽然把每个点都 fit 了,但是在某两个点之间却急剧上升或者下降。


从 Training Error 的曲线上看,也是当 order=8 时,error几乎没有,但是曲线却非常地 crazy。


接下来用矩阵来表示多项式。

求解系数矩阵W的公式:

用来 Training 的数据其实是有 Error 的,产生的原因如下几条,

所以要让我们的拟合函数尽量避开这些error,从而达到更准的效果。


用 Training 和 Testing 数据训练出来的模型,我们需要相信它们是可以代表未来要被应用的系统的,

用 Cross Validation 去调 Polynomial 的参数,

取最小的 Error 相应的参数。


Cross Validation 的 Error 一开始要比 Training Error 要高,因为:Training 用了所有的数据,而 Cross Validation 用的是一部分数据,还有一部分数据用来 test,

随着阶数的增加,Cross Validation 的 Error 渐渐接近 Training Error,但超过某个值后,又剧增,因为:随着级数越来越大,虽然会更好的拟合数据,但是会 Over Fitting,那么在未来的数据上就会不太适用。


我们想要找到的是 fit 的这个点。

在 sklearn 里有很多线性回归模型:
http://scikit-learn.org/stable/modules/linear_model.html

怎样评价你的线性回归模型

一个是画出来,一个是看Error, error 就是实际值-预测值,注意符号。

回归之后,测试数据和训练数据同时显示在这个图里。


对于回归模型,想要 Error 达到最小,合适的评价模型有两个,一个是绝对值,一个是平方。

目标就是想要这个 Error 达到最小,SSE 越大,拟合的效果越不好。

r squared 是评价回归模型的一种很重要的方法,

这个值越大越好,最大为1。越小说明没有很好地捕捉到数据的趋势,越大说明很好地描述了输入输出的关系。
这个值要用 test data 去检验,也可以看出是否 Over fitting。



多元回归


Classification 和 Regression 比较:


Regression 方法列表:

1. Parametric Regression

可以用 polyfit 直接得到多项式的系数:

import numpy as np# The rank of the coefficient matrix in the least-squares fit is deficient. # The warning is only raised if full = False.# The warnings can be turned off byimport warnings
warnings.simplefilter('ignore', np.RankWarning)

sleep = [5,6,7,8,10,12,16]
scores = [65,51,75,75,86,80,0]import matplotlib.pyplot as plt
%matplotlib inline

plt.plot(sleep, scores)

coeffs=np.polyfit(sleep, scores, 2)

coeffs

2. K Nearest Neighbor

取 k 个值的平均值作为拟合后的点,最后可以得到一条沿着点的光滑的曲线。


3. Kernel Regression

和 KNN 类似,只是不同的点,根据距离来加权,而 KNN 的每个点作用都是一样的。


打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP