当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.losses.BinaryFocalCrossentropy用法及代码示例


计算真实标签和预测之间的焦点 cross-entropy 损失。

继承自:Loss

用法

tf.keras.losses.BinaryFocalCrossentropy(
    gamma=2.0, from_logits=False, label_smoothing=0.0, axis=-1,
    reduction=losses_utils.ReductionV2.AUTO,
    name='binary_focal_crossentropy'
)

参数

  • gamma 用于计算焦点因子的聚焦参数,默认为2.0如参考文献中所述林等人,2018.
  • from_logits 是否翻译y_pred作为一个张量罗 Git 值。默认情况下,我们假设y_pred是概率(即,在[0, 1])。
  • label_smoothing 浮点数在 [0, 1] 中。当 0 时,不会发生平滑。当 > 0 时,我们计算预测标签和真实标签的平滑版本之间的损失,其中平滑将标签向 0.5 挤压。 label_smoothing 的较大值对应于较重的平滑。
  • axis 计算交叉熵的轴(特征轴)。默认为 -1
  • reduction 类型tf.keras.losses.Reduction适用于损失。默认值为AUTO.AUTO表示缩减选项将由使用上下文确定。对于几乎所有情况,这默认为SUM_OVER_BATCH_SIZE.当与tf.distribute.Strategy,在内置训练循环之外,例如tf.keras,compile()fit(), 使用SUM_OVER_BATCH_SIZE或者AUTO将引发错误。请参阅此自定义训练教程更多细节。
  • name 操作的名称。默认为'binary_focal_crossentropy'。

Binary cross-entropy loss 通常用于二元(0 或 1)分类任务。损失函数需要以下输入:

  • y_true(真实标签):这是 0 或 1。
  • y_pred(预测值):这是模型的预测,即单个浮点值,它或者代表一个 logit,(即,当 from_logits=True 时 [-inf, inf] 中的值)或概率(即, [0., 1.]from_logits=False 时的值)。

根据 Lin 等人,2018 年的说法,它有助于将 "focal factor" 应用于 down-weight 简单示例并更多地关注困难示例。默认情况下,焦点张量计算如下:

focal_factor = (1 - output) ** gamma 用于 1 类 focal_factor = output ** gamma 用于 0 类,其中 gamma 是聚焦参数。当 gamma=0 时,这个函数相当于二元交叉熵损失。

使用compile() API:

model.compile(
  loss=tf.keras.losses.BinaryFocalCrossentropy(gamma=2.0, from_logits=True),
  ....
)

作为独立函数:

# Example 1:(batch_size = 1, number of samples = 4)
y_true = [0, 1, 0, 0]
y_pred = [-18.6, 0.51, 2.94, -12.8]
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=2, from_logits=True)
loss(y_true, y_pred).numpy()
0.691
# Example 2:(batch_size = 2, number of samples = 4)
y_true = [[0, 1], [0, 0]]
y_pred = [[-18.6, 0.51], [2.94, -12.8]]
# Using default 'auto'/'sum_over_batch_size' reduction type.
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=3, from_logits=True)
loss(y_true, y_pred).numpy()
0.647
# Using 'sample_weight' attribute
loss(y_true, y_pred, sample_weight=[0.8, 0.2]).numpy()
0.133
# Using 'sum' reduction` type.
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=4, from_logits=True,
    reduction=tf.keras.losses.Reduction.SUM)
loss(y_true, y_pred).numpy()
1.222
# Using 'none' reduction type.
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=5, from_logits=True,
    reduction=tf.keras.losses.Reduction.NONE)
loss(y_true, y_pred).numpy()
array([0.0017 1.1561], dtype=float32)

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.losses.BinaryFocalCrossentropy。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。