使用 TPU 嵌入的 Adagrad 優化參數。
用法
tf.compat.v1.tpu.experimental.AdagradParameters(
learning_rate:float,
initial_accumulator:float = 0.1,
use_gradient_accumulation:bool = True,
clip_weight_min:Optional[float] = None,
clip_weight_max:Optional[float] = None,
weight_decay_factor:Optional[float] = None,
multiply_weight_decay_factor_by_learning_rate:Optional[bool] = None,
clip_gradient_min:Optional[float] = None,
clip_gradient_max:Optional[float] = None
)
參數
-
learning_rate
用於更新嵌入表。 -
initial_accumulator
Adagrad 的初始累加器。 -
use_gradient_accumulation
將此設置為False
會使嵌入梯度計算的準確性降低但速度更快。詳情請參閱optimization_parameters.proto
。 -
clip_weight_min
要裁剪的最小值;無意味著-無窮大。 -
clip_weight_max
要裁剪的最大值;無意味著+無窮大。 -
weight_decay_factor
要應用的重量衰減量; None 表示權重沒有衰減。 -
multiply_weight_decay_factor_by_learning_rate
如果為真,weight_decay_factor
將乘以當前學習率。 -
clip_gradient_min
要裁剪的最小值;無意味著-無窮大。如果設置了梯度累積,則必須將其設置為 true。 -
clip_gradient_max
要裁剪的最大值;無意味著+無窮大。如果設置了梯度累積,則必須將其設置為 true。
通過 optimization_parameters
參數將此傳遞給 tf.estimator.tpu.experimental.EmbeddingConfigSpec
以設置優化器及其參數。有關更多詳細信息,請參閱tf.estimator.tpu.experimental.EmbeddingConfigSpec
的文檔。
estimator = tf.estimator.tpu.TPUEstimator(
...
embedding_spec=tf.estimator.tpu.experimental.EmbeddingConfigSpec(
...
optimization_parameters=tf.tpu.experimental.AdagradParameters(0.1),
...))
相關用法
- Python tf.compat.v1.tpu.experimental.AdamParameters用法及代碼示例
- Python tf.compat.v1.tpu.experimental.embedding_column用法及代碼示例
- Python tf.compat.v1.tpu.experimental.FtrlParameters用法及代碼示例
- Python tf.compat.v1.tpu.experimental.shared_embedding_columns用法及代碼示例
- Python tf.compat.v1.tpu.experimental.StochasticGradientDescentParameters用法及代碼示例
- Python tf.compat.v1.tpu.bfloat16_scope用法及代碼示例
- Python tf.compat.v1.tpu.rewrite用法及代碼示例
- Python tf.compat.v1.tpu.shutdown_system用法及代碼示例
- Python tf.compat.v1.tpu.outside_compilation用法及代碼示例
- Python tf.compat.v1.tpu.shard用法及代碼示例
- Python tf.compat.v1.tpu.replicate用法及代碼示例
- Python tf.compat.v1.tpu.batch_parallel用法及代碼示例
- Python tf.compat.v1.train.FtrlOptimizer.compute_gradients用法及代碼示例
- Python tf.compat.v1.train.get_or_create_global_step用法及代碼示例
- Python tf.compat.v1.train.cosine_decay_restarts用法及代碼示例
- Python tf.compat.v1.train.Optimizer用法及代碼示例
- Python tf.compat.v1.truncated_normal_initializer.from_config用法及代碼示例
- Python tf.compat.v1.train.AdagradOptimizer.compute_gradients用法及代碼示例
- Python tf.compat.v1.train.init_from_checkpoint用法及代碼示例
- Python tf.compat.v1.truncated_normal_initializer用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.compat.v1.tpu.experimental.AdagradParameters。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。