Py学习  »  机器学习算法

干货|机器学习零基础?不要怕,吴恩达机器学习课程笔记2-多元线性回归

数据与算法之美 • 6 年前 • 517 次点击  


吴恩达Coursera机器学习课系列笔记

课程笔记|吴恩达Coursera机器学习 Week1 笔记-机器学习基础

1
Linear Regression with Multiple Variables


紧接上一篇的例子 – 房价预测。现在我们有更多的特征来预测房价了,“房间的数量”、“楼层”、“房龄”……

说明一下接下来要用到的符号:

训练集(部分)如下图所示:

然后再用上一篇中说的gradient descent方法更新 θ即可,过程如下:

2
 Gradient descent in practice



2.1 Feature Scaling

让特征们的取值处于同一个范围里面,可以加快梯度下降法的收敛速度。原因在下图中形象说明了。

2.2 Choose Learning Rate α

在不断更新θ即迭代次数不断增加之后,J(θ)的值应该不断下降,直至不怎么改变了,模型训练完毕,如下图中最后平坦的部分:

3
 Features and Polynomial Regression


除了训练集中已经给出的特征,还可以根据这些特征来生成新的特征。比如说最简单的,已有特征“长”和“宽”,可以使用生成的特征“面积”来进行模型的学习。

另外h(x)也可以使用polynomial regression来代替linear regression,则:

4
 Matrix Representation


在实际计算过程中,用矩阵来计算会提升计算速度。下面就来看看怎么转换成矩阵形式。

如下例子:

5
 Normal Equation


在Linear Regression中,Normal equation可以用来取代Gradient descent来计算 θ

下面是Gradient descent和Normal Equation的比较:



今天看啥 - 高品质阅读平台
本文地址:http://www.jintiankansha.me/t/asnY7Gd6FO
Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/7259
 
517 次点击