吴恩达深度学习学习笔记——C2W3——超参数调试、Batch正则化和程序框架-2

戏子无情 提交于 2021-02-04 08:32:36

 

1.6 Batch Norm 为什么奏效?

样本变动(covariate shift)会使得模型的确定变得困难

 

 

在不同的mini-batch中,激活函数a可能会变化较大,batch norm可使其更加“归一”

 

Batch Norm具有轻微的“正则化”效应,但这不是其目的,其目的在于加快训练速度

 

 

1.7 测试时如何使用Batch Norm?

测试时,可使用指数加权平均法来计算均值和方差

 

 

1.8 Softmax 回归

Softmax可用于多分类,是二分类logistic回归的一般形式

 

Softmax层的计算

 

 

Softmax示例

 

 

1.9 训练一个 Softmax 分类器

理解Softmax回归

 

Softmax回归的损失函数

 

Softmax的梯度下降

 

 

1.10 深度学习框架

 

 

1.11 TensorFlow

问题引入

 

Tensorflow代码示例

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!