计算真实标签和预测标签之间的 cross-entropy 损失。
继承自:Loss
用法
tf.keras.losses.BinaryCrossentropy(
from_logits=False, label_smoothing=0.0, axis=-1,
reduction=losses_utils.ReductionV2.AUTO, name='binary_crossentropy'
)
参数
-
from_logits
是否翻译y_pred
作为一个张量罗 Git 值。默认情况下,我们假设y_pred
包含概率(即 [0, 1] 中的值)。 -
label_smoothing
浮点数在 [0, 1] 中。为 0 时,不进行平滑处理。当 > 0 时,我们计算预测标签和真实标签的平滑版本之间的损失,其中平滑将标签压缩到 0.5。label_smoothing
的较大值对应于较重的平滑。 -
axis
计算交叉熵的轴(特征轴)。默认为 -1。 -
reduction
类型tf.keras.losses.Reduction
适用于损失。默认值为AUTO
.AUTO
表示缩减选项将由使用上下文确定。对于几乎所有情况,这默认为SUM_OVER_BATCH_SIZE
.当与tf.distribute.Strategy,在内置训练循环之外,例如tf.keras
compile
和fit
, 使用AUTO
或者SUM_OVER_BATCH_SIZE
将引发错误。请参阅此自定义训练教程更多细节。 -
name
操作的名称。默认为'binary_crossentropy'。
将此 cross-entropy 损失用于二进制(0 或 1)分类应用程序。损失函数需要以下输入:
y_true
(真实标签):这是 0 或 1。y_pred
(预测值):这是模型的预测,即单个浮点值,它或者代表一个 logit,(即,当from_logits=True
时 [-inf, inf] 中的值)或概率(即,from_logits=False
时 [0., 1.] 中的值)。
推荐用法:(放from_logits=True
)
使用tf.keras
API:
model.compile(
loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),
....
)
作为独立函数:
# Example 1:(batch_size = 1, number of samples = 4)
y_true = [0, 1, 0, 0]
y_pred = [-18.6, 0.51, 2.94, -12.8]
bce = tf.keras.losses.BinaryCrossentropy(from_logits=True)
bce(y_true, y_pred).numpy()
0.865
# Example 2:(batch_size = 2, number of samples = 4)
y_true = [[0, 1], [0, 0]]
y_pred = [[-18.6, 0.51], [2.94, -12.8]]
# Using default 'auto'/'sum_over_batch_size' reduction type.
bce = tf.keras.losses.BinaryCrossentropy(from_logits=True)
bce(y_true, y_pred).numpy()
0.865
# Using 'sample_weight' attribute
bce(y_true, y_pred, sample_weight=[0.8, 0.2]).numpy()
0.243
# Using 'sum' reduction` type.
bce = tf.keras.losses.BinaryCrossentropy(from_logits=True,
reduction=tf.keras.losses.Reduction.SUM)
bce(y_true, y_pred).numpy()
1.730
# Using 'none' reduction type.
bce = tf.keras.losses.BinaryCrossentropy(from_logits=True,
reduction=tf.keras.losses.Reduction.NONE)
bce(y_true, y_pred).numpy()
array([0.235, 1.496], dtype=float32)
默认用法:(放from_logits=False
)
# Make the following updates to the above "Recommended Usage" section
# 1. Set `from_logits=False`
tf.keras.losses.BinaryCrossentropy() # OR ...('from_logits=False')
# 2. Update `y_pred` to use probabilities instead of logits
y_pred = [0.6, 0.3, 0.2, 0.8] # OR [[0.6, 0.3], [0.2, 0.8]]
相关用法
- Python tf.keras.losses.BinaryFocalCrossentropy用法及代码示例
- Python tf.keras.losses.MeanAbsoluteError用法及代码示例
- Python tf.keras.losses.huber用法及代码示例
- Python tf.keras.losses.log_cosh用法及代码示例
- Python tf.keras.losses.categorical_hinge用法及代码示例
- Python tf.keras.losses.cosine_similarity用法及代码示例
- Python tf.keras.losses.Huber用法及代码示例
- Python tf.keras.losses.LogCosh用法及代码示例
- Python tf.keras.losses.MeanAbsolutePercentageError用法及代码示例
- Python tf.keras.losses.get用法及代码示例
- Python tf.keras.losses.CosineSimilarity用法及代码示例
- Python tf.keras.losses.Hinge用法及代码示例
- Python tf.keras.losses.SparseCategoricalCrossentropy用法及代码示例
- Python tf.keras.losses.KLDivergence用法及代码示例
- Python tf.keras.losses.MeanSquaredLogarithmicError用法及代码示例
- Python tf.keras.losses.CategoricalCrossentropy用法及代码示例
- Python tf.keras.losses.MeanSquaredError用法及代码示例
- Python tf.keras.losses.SquaredHinge用法及代码示例
- Python tf.keras.losses.Poisson用法及代码示例
- Python tf.keras.losses.CategoricalHinge用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.losses.BinaryCrossentropy。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。