1样本 特征
简单线性回归案例
y=w*x+b
2训练与损失
损失
可以发现左边损失大,右边小,右侧模型比较好
右边的比较大
3模型训练降低损失
3.1模型训练的迭代损失
初始值取多少意义不大的,就像图像识别初始矩阵都取很小的值
3.2计算损失函数
4梯度下降法
一般来说w会随机取一个,这需要一个方法就是梯度下降法。以一个最快的方向下山,在这里取梯度
梯度的概念是一个向量,表示某一函数该点处的方向导数沿着该方向取最大值,即函数在该点处沿着该方向(此梯度方向)变化最快变化率最高。
下一个权重值通过负梯度进行下一步搜索
5学习率和超参数
5.1学习率
5.2超参数
来源:CSDN
作者:#楚歌
链接:https://blog.csdn.net/weixin_39289876/article/details/104534890