用法
apply_gradients(
grads_and_vars, name=None, experimental_aggregate_gradients=True
)
參數
-
grads_and_vars
(梯度,變量)對的列表。 -
name
返回操作的可選名稱。默認為傳遞給Optimizer
構造函數的名稱。 -
experimental_aggregate_gradients
是否在存在tf.distribute.Strategy
的情況下對來自不同副本的梯度求和。如果為 False,則聚合梯度是用戶的責任。默認為真。
返回
-
應用指定漸變的
Operation
。iterations
將自動增加 1。
拋出
-
TypeError
如果grads_and_vars
格式錯誤。 -
ValueError
如果沒有一個變量有梯度。 -
RuntimeError
如果在 cross-replica 上下文中調用。
將漸變應用於變量。
這是 minimize()
的第二部分。它返回一個應用漸變的Operation
。
默認情況下,該方法在 tf.distribute.Strategy
存在的情況下對所有副本的梯度求和。您可以通過傳遞 experimental_aggregate_gradients=False
自己聚合漸變。
例子:
grads = tape.gradient(loss, vars)
grads = tf.distribute.get_replica_context().all_reduce('sum', grads)
# Processing aggregated gradients.
optimizer.apply_gradients(zip(grads, vars),
experimental_aggregate_gradients=False)
相關用法
- Python tf.keras.optimizers.Optimizer.set_weights用法及代碼示例
- Python tf.keras.optimizers.Optimizer.get_weights用法及代碼示例
- Python tf.keras.optimizers.Optimizer用法及代碼示例
- Python tf.keras.optimizers.schedules.serialize用法及代碼示例
- Python tf.keras.optimizers.Adam用法及代碼示例
- Python tf.keras.optimizers.Adamax用法及代碼示例
- Python tf.keras.optimizers.SGD用法及代碼示例
- Python tf.keras.optimizers.schedules.ExponentialDecay用法及代碼示例
- Python tf.keras.optimizers.schedules.PiecewiseConstantDecay用法及代碼示例
- Python tf.keras.optimizers.Nadam用法及代碼示例
- Python tf.keras.optimizers.RMSprop用法及代碼示例
- Python tf.keras.optimizers.schedules.deserialize用法及代碼示例
- Python tf.keras.optimizers.schedules.CosineDecay用法及代碼示例
- Python tf.keras.optimizers.schedules.CosineDecayRestarts用法及代碼示例
- Python tf.keras.optimizers.Ftrl用法及代碼示例
- Python tf.keras.optimizers.schedules.PolynomialDecay用法及代碼示例
- Python tf.keras.optimizers.serialize用法及代碼示例
- Python tf.keras.optimizers.schedules.InverseTimeDecay用法及代碼示例
- Python tf.keras.applications.inception_resnet_v2.preprocess_input用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.optimizers.Optimizer.apply_gradients。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。