用法:
cuml.metrics.log_loss(y_true, y_pred, eps=1e-15, normalize=True, sample_weight=None) → float
對數損失,又稱邏輯損失或 cross-entropy 損失。這是在(多項)邏輯回歸及其擴展(例如神經網絡)中使用的損失函數,定義為邏輯模型的負 log-likelihood,該模型返回其訓練數據的
y_pred
概率y_true
。日誌損失僅針對兩個或更多標簽定義。- y_true:array-like,形狀 = (n_samples,)
- y_pred:array-like 的浮點數,
形狀 = (n_samples, n_classes) 或 (n_samples,)
- eps:浮點數
對於 p=0 或 p=1,對數損失未定義,因此概率被限製為 max(eps, min(1 - eps, p))。
- normalize:布爾,可選(默認=真)
如果為真,則返回每個樣本的平均損失。否則,返回per-sample 損失的總和。
- sample_weight:array-like of shape (n_samples,), default=None
樣本權重。
- loss:浮點數
參數:
返回:
注意:
使用的對數是自然對數 (base-e)。
參考:
厘米。主教(2006 年)。模式識別和機器學習。斯普林格,第209.
例子:
>>> from cuml.metrics import log_loss >>> import numpy as np >>> log_loss(np.array([1, 0, 0, 1]), ... np.array([[.1, .9], [.9, .1], [.8, .2], [.35, .65]])) 0.21616...
相關用法
- Python cuml.metrics.pairwise_distances.pairwise_distances用法及代碼示例
- Python cuml.metrics.roc_auc_score用法及代碼示例
- Python cuml.metrics.pairwise_distances.sparse_pairwise_distances用法及代碼示例
- Python cuml.metrics.precision_recall_curve用法及代碼示例
- Python cuml.multiclass.OneVsRestClassifier用法及代碼示例
- Python cuml.model_selection.train_test_split用法及代碼示例
- Python cuml.multiclass.OneVsOneClassifier用法及代碼示例
- Python cuml.multiclass.MulticlassClassifier用法及代碼示例
- Python cuml.neighbors.KNeighborsClassifier用法及代碼示例
- Python cuml.ensemble.RandomForestRegressor用法及代碼示例
- Python cuml.svm.SVC用法及代碼示例
- Python cuml.svm.SVR用法及代碼示例
- Python cuml.Lasso用法及代碼示例
- Python cuml.tsa.ARIMA.predict用法及代碼示例
- Python cuml.preprocessing.LabelBinarizer用法及代碼示例
- Python cuml.random_projection.GaussianRandomProjection用法及代碼示例
- Python cuml.MBSGDRegressor用法及代碼示例
- Python cuml.experimental.preprocessing.PolynomialFeatures用法及代碼示例
- Python cuml.PCA用法及代碼示例
- Python cuml.feature_extraction.text.HashingVectorizer用法及代碼示例
注:本文由純淨天空篩選整理自rapids.ai大神的英文原創作品 cuml.metrics.log_loss。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。