將 LearningRateSchedule
序列化為 JSON-compatible 表示。
用法
tf.keras.optimizers.schedules.serialize(
learning_rate_schedule
)
參數
-
learning_rate_schedule
要序列化的LearningRateSchedule
對象。
返回
- 表示對象配置的 JSON-serializable dict。
例子:
lr_schedule = tf.keras.optimizers.schedules.ExponentialDecay(
0.1, decay_steps=100000, decay_rate=0.96, staircase=True)
tf.keras.optimizers.schedules.serialize(lr_schedule)
{'class_name':'ExponentialDecay',
'config':{'decay_rate':0.96,
'decay_steps':100000,
'initial_learning_rate':0.1,
'name':None,
'staircase':True} }
相關用法
- Python tf.keras.optimizers.schedules.ExponentialDecay用法及代碼示例
- Python tf.keras.optimizers.schedules.PiecewiseConstantDecay用法及代碼示例
- Python tf.keras.optimizers.schedules.deserialize用法及代碼示例
- Python tf.keras.optimizers.schedules.CosineDecay用法及代碼示例
- Python tf.keras.optimizers.schedules.CosineDecayRestarts用法及代碼示例
- Python tf.keras.optimizers.schedules.PolynomialDecay用法及代碼示例
- Python tf.keras.optimizers.schedules.InverseTimeDecay用法及代碼示例
- Python tf.keras.optimizers.serialize用法及代碼示例
- Python tf.keras.optimizers.Optimizer.set_weights用法及代碼示例
- Python tf.keras.optimizers.Adam用法及代碼示例
- Python tf.keras.optimizers.Adamax用法及代碼示例
- Python tf.keras.optimizers.SGD用法及代碼示例
- Python tf.keras.optimizers.Optimizer用法及代碼示例
- Python tf.keras.optimizers.Nadam用法及代碼示例
- Python tf.keras.optimizers.RMSprop用法及代碼示例
- Python tf.keras.optimizers.Optimizer.apply_gradients用法及代碼示例
- Python tf.keras.optimizers.Ftrl用法及代碼示例
- Python tf.keras.optimizers.Optimizer.get_weights用法及代碼示例
- Python tf.keras.applications.inception_resnet_v2.preprocess_input用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.optimizers.schedules.serialize。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。