-
梯度下降,就是不断的改变Θ0,Θ1的值,然后求得各种函数的最小值
-
梯度下降的特点:我们讲选取的点发生一些偏移,很可能会找到不同的局部最小值
-
α叫做学习效率,它控制着我们以多大的幅度更新参数Θj(α永远是正值)
α过小或过大的情况
- 梯度下降过程中,随着不断的调整,越接近局部最优解,下降的幅度就会越小,因为导数越来越小了
- Batch梯度下降(将梯度下降和线性回归函数结合)之前对应线性回归函数,是我们人工手动来求得的。但是这样太过复杂,所以将梯度下降和线性回归函数结合。每次Θ0和Θ1都会 根据斜率,来自动调节Θ0和Θ1的值,从而自动求得了局部最优解