當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python cuml.metrics.log_loss用法及代碼示例


用法:

cuml.metrics.log_loss(y_true, y_pred, eps=1e-15, normalize=True, sample_weight=None) → float

對數損失,又稱邏輯損失或 cross-entropy 損失。這是在(多項)邏輯回歸及其擴展(例如神經網絡)中使用的損失函數,定義為邏輯模型的負 log-likelihood,該模型返回其訓練數據的 y_pred 概率 y_true 。日誌損失僅針對兩個或更多標簽定義。

參數

y_truearray-like,形狀 = (n_samples,)
y_predarray-like 的浮點數,

形狀 = (n_samples, n_classes) 或 (n_samples,)

eps浮點數

對於 p=0 或 p=1,對數損失未定義,因此概率被限製為 max(eps, min(1 - eps, p))。

normalize布爾,可選(默認=真)

如果為真,則返回每個樣本的平均損失。否則,返回per-sample 損失的總和。

sample_weightarray-like of shape (n_samples,), default=None

樣本權重。

返回

loss浮點數

注意

使用的對數是自然對數 (base-e)。

參考

厘米。主教(2006 年)。模式識別和機器學習。斯普林格,第209.

例子

>>> from cuml.metrics import log_loss
>>> import numpy as np
>>> log_loss(np.array([1, 0, 0, 1]),
...          np.array([[.1, .9], [.9, .1], [.8, .2], [.35, .65]]))
0.21616...

相關用法


注:本文由純淨天空篩選整理自rapids.ai大神的英文原創作品 cuml.metrics.log_loss。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。