當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.nn.scale_regularization_loss用法及代碼示例


按副本數縮放給定正則化損失的總和。

用法

tf.nn.scale_regularization_loss(
    regularization_loss
)

參數

  • regularization_loss 正則化損失。

返回

  • 標量損失值。

與分配策略和自定義訓練循環一起使用:

with strategy.scope():
  def compute_loss(self, label, predictions):
    per_example_loss = tf.keras.losses.sparse_categorical_crossentropy(
        labels, predictions)

    # Compute loss that is scaled by sample_weight and by global batch size.
    loss = tf.nn.compute_average_loss(
        per_example_loss,
        sample_weight=sample_weight,
        global_batch_size=GLOBAL_BATCH_SIZE)

    # Add scaled regularization losses.
    loss += tf.nn.scale_regularization_loss(tf.nn.l2_loss(weights))
    return loss

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.nn.scale_regularization_loss。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。