用法:
cuml.metrics.log_loss(y_true, y_pred, eps=1e-15, normalize=True, sample_weight=None) → float
对数损失,又称逻辑损失或 cross-entropy 损失。这是在(多项)逻辑回归及其扩展(例如神经网络)中使用的损失函数,定义为逻辑模型的负 log-likelihood,该模型返回其训练数据的
y_pred
概率y_true
。日志损失仅针对两个或更多标签定义。- y_true:array-like,形状 = (n_samples,)
- y_pred:array-like 的浮点数,
形状 = (n_samples, n_classes) 或 (n_samples,)
- eps:浮点数
对于 p=0 或 p=1,对数损失未定义,因此概率被限制为 max(eps, min(1 - eps, p))。
- normalize:布尔,可选(默认=真)
如果为真,则返回每个样本的平均损失。否则,返回per-sample 损失的总和。
- sample_weight:array-like of shape (n_samples,), default=None
样本权重。
- loss:浮点数
参数:
返回:
注意:
使用的对数是自然对数 (base-e)。
参考:
厘米。主教(2006 年)。模式识别和机器学习。斯普林格,第209.
例子:
>>> from cuml.metrics import log_loss >>> import numpy as np >>> log_loss(np.array([1, 0, 0, 1]), ... np.array([[.1, .9], [.9, .1], [.8, .2], [.35, .65]])) 0.21616...
相关用法
- Python cuml.metrics.pairwise_distances.pairwise_distances用法及代码示例
- Python cuml.metrics.roc_auc_score用法及代码示例
- Python cuml.metrics.pairwise_distances.sparse_pairwise_distances用法及代码示例
- Python cuml.metrics.precision_recall_curve用法及代码示例
- Python cuml.multiclass.OneVsRestClassifier用法及代码示例
- Python cuml.model_selection.train_test_split用法及代码示例
- Python cuml.multiclass.OneVsOneClassifier用法及代码示例
- Python cuml.multiclass.MulticlassClassifier用法及代码示例
- Python cuml.neighbors.KNeighborsClassifier用法及代码示例
- Python cuml.ensemble.RandomForestRegressor用法及代码示例
- Python cuml.svm.SVC用法及代码示例
- Python cuml.svm.SVR用法及代码示例
- Python cuml.Lasso用法及代码示例
- Python cuml.tsa.ARIMA.predict用法及代码示例
- Python cuml.preprocessing.LabelBinarizer用法及代码示例
- Python cuml.random_projection.GaussianRandomProjection用法及代码示例
- Python cuml.MBSGDRegressor用法及代码示例
- Python cuml.experimental.preprocessing.PolynomialFeatures用法及代码示例
- Python cuml.PCA用法及代码示例
- Python cuml.feature_extraction.text.HashingVectorizer用法及代码示例
注:本文由纯净天空筛选整理自rapids.ai大神的英文原创作品 cuml.metrics.log_loss。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。