当指标停止改进时降低学习率。
继承自:Callback
用法
tf.keras.callbacks.ReduceLROnPlateau(
monitor='val_loss', factor=0.1, patience=10, verbose=0,
mode='auto', min_delta=0.0001, cooldown=0, min_lr=0, **kwargs
)
参数
-
monitor
要监控的数量。 -
factor
降低学习率的因子。new_lr = lr * factor
。 -
patience
没有改善的时期数,之后学习率将降低。 -
verbose
int. 0:安静,1:更新消息。 -
mode
{'auto', 'min', 'max'}
之一。'min'
模式下,当监控量停止减少时,学习率会降低;在'max'
模式下,当监控的数量停止增加时,它会减少;在'auto'
模式下,根据监控量的名称自动推断方向。 -
min_delta
衡量新的最佳值的阈值,只关注重大变化。 -
cooldown
在 lr 减少后恢复正常操作之前要等待的 epoch 数。 -
min_lr
学习率的下限。
一旦学习停滞,模型通常会受益于将学习率降低 2-10 倍。此回调监控一个数量,如果在'patience' 的时期数上没有看到任何改进,则学习率会降低。
例子:
reduce_lr = ReduceLROnPlateau(monitor='val_loss', factor=0.2,
patience=5, min_lr=0.001)
model.fit(X_train, Y_train, callbacks=[reduce_lr])
相关用法
- Python tf.keras.callbacks.EarlyStopping用法及代码示例
- Python tf.keras.callbacks.CSVLogger用法及代码示例
- Python tf.keras.callbacks.TensorBoard用法及代码示例
- Python tf.keras.callbacks.Callback用法及代码示例
- Python tf.keras.callbacks.ModelCheckpoint用法及代码示例
- Python tf.keras.callbacks.LambdaCallback用法及代码示例
- Python tf.keras.callbacks.BackupAndRestore用法及代码示例
- Python tf.keras.callbacks.LearningRateScheduler用法及代码示例
- Python tf.keras.callbacks.History用法及代码示例
- Python tf.keras.applications.inception_resnet_v2.preprocess_input用法及代码示例
- Python tf.keras.metrics.Mean.merge_state用法及代码示例
- Python tf.keras.layers.InputLayer用法及代码示例
- Python tf.keras.layers.serialize用法及代码示例
- Python tf.keras.metrics.Hinge用法及代码示例
- Python tf.keras.experimental.WideDeepModel.compute_loss用法及代码示例
- Python tf.keras.metrics.SparseCategoricalAccuracy.merge_state用法及代码示例
- Python tf.keras.metrics.RootMeanSquaredError用法及代码示例
- Python tf.keras.applications.resnet50.preprocess_input用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.callbacks.ReduceLROnPlateau。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。