當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.keras.optimizers.Nadam用法及代碼示例


實現 NAdam 算法的優化器。

繼承自:Optimizer

用法

tf.keras.optimizers.Nadam(
    learning_rate=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-07,
    name='Nadam', **kwargs
)

參數

  • learning_rate 張量或浮點值。學習率。
  • beta_1 浮點值或常量浮點張量。一階矩估計的 index 衰減率。
  • beta_2 浮點值或常量浮點張量。 index 加權無窮範數的 index 衰減率。
  • epsilon 用於數值穩定性的小常數。
  • name 應用漸變時創建的操作的可選名稱。默認為 "Nadam"
  • **kwargs 關鍵字參數。允許是 "clipnorm""clipvalue" 之一。 "clipnorm" (float) 按標準裁剪漸變; "clipvalue" (float) 按值裁剪漸變。

拋出

  • ValueError 在任何無效論點的情況下。

就像 Adam 本質上是具有動量的 RMSprop 一樣,Nadam 是具有 Nesterov 動量的 Adam。

使用示例:

opt = tf.keras.optimizers.Nadam(learning_rate=0.2)
var1 = tf.Variable(10.0)
loss = lambda:(var1 ** 2) / 2.0
step_count = opt.minimize(loss, [var1]).numpy()
"{:.1f}".format(var1.numpy())
9.8

參考:

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.optimizers.Nadam。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。