當指標停止改進時降低學習率。
繼承自:Callback
用法
tf.keras.callbacks.ReduceLROnPlateau(
monitor='val_loss', factor=0.1, patience=10, verbose=0,
mode='auto', min_delta=0.0001, cooldown=0, min_lr=0, **kwargs
)
參數
-
monitor
要監控的數量。 -
factor
降低學習率的因子。new_lr = lr * factor
。 -
patience
沒有改善的時期數,之後學習率將降低。 -
verbose
int. 0:安靜,1:更新消息。 -
mode
{'auto', 'min', 'max'}
之一。'min'
模式下,當監控量停止減少時,學習率會降低;在'max'
模式下,當監控的數量停止增加時,它會減少;在'auto'
模式下,根據監控量的名稱自動推斷方向。 -
min_delta
衡量新的最佳值的閾值,隻關注重大變化。 -
cooldown
在 lr 減少後恢複正常操作之前要等待的 epoch 數。 -
min_lr
學習率的下限。
一旦學習停滯,模型通常會受益於將學習率降低 2-10 倍。此回調監控一個數量,如果在'patience' 的時期數上沒有看到任何改進,則學習率會降低。
例子:
reduce_lr = ReduceLROnPlateau(monitor='val_loss', factor=0.2,
patience=5, min_lr=0.001)
model.fit(X_train, Y_train, callbacks=[reduce_lr])
相關用法
- Python tf.keras.callbacks.EarlyStopping用法及代碼示例
- Python tf.keras.callbacks.CSVLogger用法及代碼示例
- Python tf.keras.callbacks.TensorBoard用法及代碼示例
- Python tf.keras.callbacks.Callback用法及代碼示例
- Python tf.keras.callbacks.ModelCheckpoint用法及代碼示例
- Python tf.keras.callbacks.LambdaCallback用法及代碼示例
- Python tf.keras.callbacks.BackupAndRestore用法及代碼示例
- Python tf.keras.callbacks.LearningRateScheduler用法及代碼示例
- Python tf.keras.callbacks.History用法及代碼示例
- Python tf.keras.applications.inception_resnet_v2.preprocess_input用法及代碼示例
- Python tf.keras.metrics.Mean.merge_state用法及代碼示例
- Python tf.keras.layers.InputLayer用法及代碼示例
- Python tf.keras.layers.serialize用法及代碼示例
- Python tf.keras.metrics.Hinge用法及代碼示例
- Python tf.keras.experimental.WideDeepModel.compute_loss用法及代碼示例
- Python tf.keras.metrics.SparseCategoricalAccuracy.merge_state用法及代碼示例
- Python tf.keras.metrics.RootMeanSquaredError用法及代碼示例
- Python tf.keras.applications.resnet50.preprocess_input用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.callbacks.ReduceLROnPlateau。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。