简单记录

课时2-1 模型描述

m=训练样本数量

x=输入变量/特征

y=输出变量/目标变量

(x,y)一个训练样本

(x(i),y(i)) 第i个样本·

h假设函数(hypothesis )

课时2-2 代价函数

hθ(x)=θ01*x

尽量选择参数合理准确地预测y

代价函数:(平方误差代价函数)
$$
minimize \frac{1}{2m}\sum_{i=1}^m(h_θ(x^{(i)})-y^{(i)})^2
$$
(加二分之一为了好求导)

课时2-3 代价函数(一)

![](F:\blog\blog\source_posts\pictures\cost function.png)

课时2-4 代价函数(二)

代价函数计算,等高线绘制

课时2-5 梯度下降

课时2-6 梯度下降知识点总结

学习率:太小下降太慢,太大来回跳跃。

局部极小值:梯度下降会自动采用更小的步幅

课时2-7 线性回归的梯度下降

线性回归模型呈碗状

Batch梯度下降法:全览整个数据集

title:吴恩达机器学习 课时 1 学习笔记
date: 2020-06-06 10:44:13
tags:

  • 机器学习
  • 学习笔记