tf.train.MomentumOptimizer
实现momentum算法的优化器。计算表达式如下(如果use_nesterov = False): accumulation = momentum * accumulation + gradient variable -= learning_rate * accumulation __init__ __init__( learning_rate, momentum, use_locking=False, name='Momentum', use_nesterov=False ) 构造一个新的momentum optimizer。 参数: learning_rate momentum use_lock:如果真要使用锁进行更新操作。 name:可选的名称前缀,用于应用渐变时创建的操作。默认为“动力”。 如果是真的,使用Nesterov动量。参见 Sutskever et al., 2013 。这个实现总是根据传递给优化器的变量的值计算梯度。使用Nesterov动量使变量跟踪本文中称为theta_t + *v_t的值。这个实现是对原公式的近似,适用于高动量值。它将计算NAG中的“调整梯度”,假设新的梯度将由当前的平均梯度加上动量和平均梯度变化的乘积来估计。 Eager Compatibility: 当启用了紧急执行时,learning_rate和momentum都可以是一个可调用的函数