TPU 嵌入的随机梯度下降的优化参数。
用法
tf.compat.v1.tpu.experimental.StochasticGradientDescentParameters(
learning_rate:float,
clip_weight_min:Optional[float] = None,
clip_weight_max:Optional[float] = None,
weight_decay_factor:Optional[float] = None,
multiply_weight_decay_factor_by_learning_rate:Optional[bool] = None,
clip_gradient_min:Optional[float] = None,
clip_gradient_max:Optional[float] = None
)
参数
-
learning_rate
一个浮点值。学习率。 -
clip_weight_min
要裁剪的最小值;无意味着-无穷大。 -
clip_weight_max
要裁剪的最大值;无意味着+无穷大。 -
weight_decay_factor
要应用的重量衰减量; None 表示权重没有衰减。 -
multiply_weight_decay_factor_by_learning_rate
如果为真,weight_decay_factor
将乘以当前学习率。 -
clip_gradient_min
要裁剪的最小值;无意味着-无穷大。 -
clip_gradient_max
要裁剪的最大值;无意味着+无穷大。
通过 optimization_parameters
参数将此传递给 tf.estimator.tpu.experimental.EmbeddingConfigSpec
以设置优化器及其参数。有关更多详细信息,请参阅tf.estimator.tpu.experimental.EmbeddingConfigSpec
的文档。
estimator = tf.estimator.tpu.TPUEstimator(
...
embedding_config_spec=tf.estimator.tpu.experimental.EmbeddingConfigSpec(
...
optimization_parameters=(
tf.tpu.experimental.StochasticGradientDescentParameters(0.1))))
相关用法
- Python tf.compat.v1.tpu.experimental.AdamParameters用法及代码示例
- Python tf.compat.v1.tpu.experimental.embedding_column用法及代码示例
- Python tf.compat.v1.tpu.experimental.FtrlParameters用法及代码示例
- Python tf.compat.v1.tpu.experimental.shared_embedding_columns用法及代码示例
- Python tf.compat.v1.tpu.experimental.AdagradParameters用法及代码示例
- Python tf.compat.v1.tpu.bfloat16_scope用法及代码示例
- Python tf.compat.v1.tpu.rewrite用法及代码示例
- Python tf.compat.v1.tpu.shutdown_system用法及代码示例
- Python tf.compat.v1.tpu.outside_compilation用法及代码示例
- Python tf.compat.v1.tpu.shard用法及代码示例
- Python tf.compat.v1.tpu.replicate用法及代码示例
- Python tf.compat.v1.tpu.batch_parallel用法及代码示例
- Python tf.compat.v1.train.FtrlOptimizer.compute_gradients用法及代码示例
- Python tf.compat.v1.train.get_or_create_global_step用法及代码示例
- Python tf.compat.v1.train.cosine_decay_restarts用法及代码示例
- Python tf.compat.v1.train.Optimizer用法及代码示例
- Python tf.compat.v1.truncated_normal_initializer.from_config用法及代码示例
- Python tf.compat.v1.train.AdagradOptimizer.compute_gradients用法及代码示例
- Python tf.compat.v1.train.init_from_checkpoint用法及代码示例
- Python tf.compat.v1.truncated_normal_initializer用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.compat.v1.tpu.experimental.StochasticGradientDescentParameters。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。