当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python cuml.metrics.log_loss用法及代码示例


用法:

cuml.metrics.log_loss(y_true, y_pred, eps=1e-15, normalize=True, sample_weight=None) → float

对数损失,又称逻辑损失或 cross-entropy 损失。这是在(多项)逻辑回归及其扩展(例如神经网络)中使用的损失函数,定义为逻辑模型的负 log-likelihood,该模型返回其训练数据的 y_pred 概率 y_true 。日志损失仅针对两个或更多标签定义。

参数

y_truearray-like,形状 = (n_samples,)
y_predarray-like 的浮点数,

形状 = (n_samples, n_classes) 或 (n_samples,)

eps浮点数

对于 p=0 或 p=1,对数损失未定义,因此概率被限制为 max(eps, min(1 - eps, p))。

normalize布尔,可选(默认=真)

如果为真,则返回每个样本的平均损失。否则,返回per-sample 损失的总和。

sample_weightarray-like of shape (n_samples,), default=None

样本权重。

返回

loss浮点数

注意

使用的对数是自然对数 (base-e)。

参考

厘米。主教(2006 年)。模式识别和机器学习。斯普林格,第209.

例子

>>> from cuml.metrics import log_loss
>>> import numpy as np
>>> log_loss(np.array([1, 0, 0, 1]),
...          np.array([[.1, .9], [.9, .1], [.8, .2], [.35, .65]]))
0.21616...

相关用法


注:本文由纯净天空筛选整理自rapids.ai大神的英文原创作品 cuml.metrics.log_loss。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。