计算真实标签和预测之间的焦点 cross-entropy 损失。
继承自:Loss
用法
tf.keras.losses.BinaryFocalCrossentropy(
gamma=2.0, from_logits=False, label_smoothing=0.0, axis=-1,
reduction=losses_utils.ReductionV2.AUTO,
name='binary_focal_crossentropy'
)
参数
-
gamma
用于计算焦点因子的聚焦参数,默认为2.0
如参考文献中所述林等人,2018. -
from_logits
是否翻译y_pred
作为一个张量罗 Git 值。默认情况下,我们假设y_pred
是概率(即,在[0, 1]
)。 -
label_smoothing
浮点数在[0, 1]
中。当0
时,不会发生平滑。当 >0
时,我们计算预测标签和真实标签的平滑版本之间的损失,其中平滑将标签向0.5
挤压。label_smoothing
的较大值对应于较重的平滑。 -
axis
计算交叉熵的轴(特征轴)。默认为-1
。 -
reduction
类型tf.keras.losses.Reduction
适用于损失。默认值为AUTO
.AUTO
表示缩减选项将由使用上下文确定。对于几乎所有情况,这默认为SUM_OVER_BATCH_SIZE
.当与tf.distribute.Strategy,在内置训练循环之外,例如tf.keras
,compile()
和fit()
, 使用SUM_OVER_BATCH_SIZE
或者AUTO
将引发错误。请参阅此自定义训练教程更多细节。 -
name
操作的名称。默认为'binary_focal_crossentropy'。
Binary cross-entropy loss 通常用于二元(0 或 1)分类任务。损失函数需要以下输入:
y_true
(真实标签):这是 0 或 1。y_pred
(预测值):这是模型的预测,即单个浮点值,它或者代表一个 logit,(即,当from_logits=True
时 [-inf, inf] 中的值)或概率(即,[0., 1.]
当from_logits=False
时的值)。
根据 Lin 等人,2018 年的说法,它有助于将 "focal factor" 应用于 down-weight 简单示例并更多地关注困难示例。默认情况下,焦点张量计算如下:
focal_factor = (1 - output) ** gamma
用于 1 类 focal_factor = output ** gamma
用于 0 类,其中 gamma
是聚焦参数。当 gamma=0
时,这个函数相当于二元交叉熵损失。
使用compile()
API:
model.compile(
loss=tf.keras.losses.BinaryFocalCrossentropy(gamma=2.0, from_logits=True),
....
)
作为独立函数:
# Example 1:(batch_size = 1, number of samples = 4)
y_true = [0, 1, 0, 0]
y_pred = [-18.6, 0.51, 2.94, -12.8]
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=2, from_logits=True)
loss(y_true, y_pred).numpy()
0.691
# Example 2:(batch_size = 2, number of samples = 4)
y_true = [[0, 1], [0, 0]]
y_pred = [[-18.6, 0.51], [2.94, -12.8]]
# Using default 'auto'/'sum_over_batch_size' reduction type.
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=3, from_logits=True)
loss(y_true, y_pred).numpy()
0.647
# Using 'sample_weight' attribute
loss(y_true, y_pred, sample_weight=[0.8, 0.2]).numpy()
0.133
# Using 'sum' reduction` type.
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=4, from_logits=True,
reduction=tf.keras.losses.Reduction.SUM)
loss(y_true, y_pred).numpy()
1.222
# Using 'none' reduction type.
loss = tf.keras.losses.BinaryFocalCrossentropy(gamma=5, from_logits=True,
reduction=tf.keras.losses.Reduction.NONE)
loss(y_true, y_pred).numpy()
array([0.0017 1.1561], dtype=float32)
相关用法
- Python tf.keras.losses.BinaryCrossentropy用法及代码示例
- Python tf.keras.losses.MeanAbsoluteError用法及代码示例
- Python tf.keras.losses.huber用法及代码示例
- Python tf.keras.losses.log_cosh用法及代码示例
- Python tf.keras.losses.categorical_hinge用法及代码示例
- Python tf.keras.losses.cosine_similarity用法及代码示例
- Python tf.keras.losses.Huber用法及代码示例
- Python tf.keras.losses.LogCosh用法及代码示例
- Python tf.keras.losses.MeanAbsolutePercentageError用法及代码示例
- Python tf.keras.losses.get用法及代码示例
- Python tf.keras.losses.CosineSimilarity用法及代码示例
- Python tf.keras.losses.Hinge用法及代码示例
- Python tf.keras.losses.SparseCategoricalCrossentropy用法及代码示例
- Python tf.keras.losses.KLDivergence用法及代码示例
- Python tf.keras.losses.MeanSquaredLogarithmicError用法及代码示例
- Python tf.keras.losses.CategoricalCrossentropy用法及代码示例
- Python tf.keras.losses.MeanSquaredError用法及代码示例
- Python tf.keras.losses.SquaredHinge用法及代码示例
- Python tf.keras.losses.Poisson用法及代码示例
- Python tf.keras.losses.CategoricalHinge用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.losses.BinaryFocalCrossentropy。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。