实现 NAdam 算法的优化器。
继承自:Optimizer
用法
tf.keras.optimizers.Nadam(
learning_rate=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-07,
name='Nadam', **kwargs
)
参数
-
learning_rate
张量或浮点值。学习率。 -
beta_1
浮点值或常量浮点张量。一阶矩估计的 index 衰减率。 -
beta_2
浮点值或常量浮点张量。 index 加权无穷范数的 index 衰减率。 -
epsilon
用于数值稳定性的小常数。 -
name
应用渐变时创建的操作的可选名称。默认为"Nadam"
。 -
**kwargs
关键字参数。允许是"clipnorm"
或"clipvalue"
之一。"clipnorm"
(float) 按标准裁剪渐变;"clipvalue"
(float) 按值裁剪渐变。
抛出
-
ValueError
在任何无效论点的情况下。
就像 Adam 本质上是具有动量的 RMSprop 一样,Nadam 是具有 Nesterov 动量的 Adam。
使用示例:
opt = tf.keras.optimizers.Nadam(learning_rate=0.2)
var1 = tf.Variable(10.0)
loss = lambda:(var1 ** 2) / 2.0
step_count = opt.minimize(loss, [var1]).numpy()
"{:.1f}".format(var1.numpy())
9.8
参考:
相关用法
- Python tf.keras.optimizers.Optimizer.set_weights用法及代码示例
- Python tf.keras.optimizers.schedules.serialize用法及代码示例
- Python tf.keras.optimizers.Adam用法及代码示例
- Python tf.keras.optimizers.Adamax用法及代码示例
- Python tf.keras.optimizers.SGD用法及代码示例
- Python tf.keras.optimizers.Optimizer用法及代码示例
- Python tf.keras.optimizers.schedules.ExponentialDecay用法及代码示例
- Python tf.keras.optimizers.schedules.PiecewiseConstantDecay用法及代码示例
- Python tf.keras.optimizers.RMSprop用法及代码示例
- Python tf.keras.optimizers.schedules.deserialize用法及代码示例
- Python tf.keras.optimizers.schedules.CosineDecay用法及代码示例
- Python tf.keras.optimizers.schedules.CosineDecayRestarts用法及代码示例
- Python tf.keras.optimizers.Optimizer.apply_gradients用法及代码示例
- Python tf.keras.optimizers.Ftrl用法及代码示例
- Python tf.keras.optimizers.Optimizer.get_weights用法及代码示例
- Python tf.keras.optimizers.schedules.PolynomialDecay用法及代码示例
- Python tf.keras.optimizers.serialize用法及代码示例
- Python tf.keras.optimizers.schedules.InverseTimeDecay用法及代码示例
- Python tf.keras.applications.inception_resnet_v2.preprocess_input用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.optimizers.Nadam。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。