当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.nn.scale_regularization_loss用法及代码示例


按副本数缩放给定正则化损失的总和。

用法

tf.nn.scale_regularization_loss(
    regularization_loss
)

参数

  • regularization_loss 正则化损失。

返回

  • 标量损失值。

与分配策略和自定义训练循环一起使用:

with strategy.scope():
  def compute_loss(self, label, predictions):
    per_example_loss = tf.keras.losses.sparse_categorical_crossentropy(
        labels, predictions)

    # Compute loss that is scaled by sample_weight and by global batch size.
    loss = tf.nn.compute_average_loss(
        per_example_loss,
        sample_weight=sample_weight,
        global_batch_size=GLOBAL_BATCH_SIZE)

    # Add scaled regularization losses.
    loss += tf.nn.scale_regularization_loss(tf.nn.l2_loss(weights))
    return loss

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.nn.scale_regularization_loss。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。