本文简要介绍python语言中 sklearn.linear_model.enet_path
的用法。
用法:
sklearn.linear_model.enet_path(X, y, *, l1_ratio=0.5, eps=0.001, n_alphas=100, alphas=None, precompute='auto', Xy=None, copy_X=True, coef_init=None, verbose=False, return_n_iter=False, positive=False, check_input=True, **params)
使用坐标下降计算弹性网络路径。
弹性网络优化函数因单声道和multi-outputs 而异。
对于mono-output 任务,它是:
1 / (2 * n_samples) * ||y - Xw||^2_2 + alpha * l1_ratio * ||w||_1 + 0.5 * alpha * (1 - l1_ratio) * ||w||^2_2
对于multi-output 任务,它是:
(1 / (2 * n_samples)) * ||Y - XW||_Fro^2 + alpha * l1_ratio * ||W||_21 + 0.5 * alpha * (1 - l1_ratio) * ||W||_Fro^2
其中:
||W||_21 = \sum_i \sqrt{\sum_j w_{ij}^2}
即每行的范数之和。
在用户指南中阅读更多信息。
- X:{类数组,稀疏矩阵},形状为 (n_samples, n_features)
训练数据。直接作为Fortran-contiguous 数据传递以避免不必要的内存重复。如果
y
是 mono-output 那么X
可以是稀疏的。- y:{类似数组的稀疏矩阵},形状为 (n_samples,) 或 (n_samples, n_targets)
目标值。
- l1_ratio:浮点数,默认=0.5
0 到 1 之间的数字传递给弹性网络(在 l1 和 l2 惩罚之间缩放)。
l1_ratio=1
对应于套索。- eps:浮点数,默认=1e-3
路径的长度。
eps=1e-3
表示alpha_min / alpha_max = 1e-3
。- n_alphas:整数,默认=100
正则化路径上的 alpha 数量。
- alphas:ndarray,默认=无
计算模型的 alpha 列表。如果 None alphas 是自动设置的。
- precompute:‘auto’,布尔型或类似数组的形状 (n_features, n_features),默认=’auto’
是否使用预先计算的 Gram 矩阵来加速计算。如果设置为
'auto'
,让我们决定。 Gram 矩阵也可以作为参数传递。- Xy:形状为 (n_features,) 或 (n_features, n_targets) 的类似数组,默认=无
Xy = np.dot(X.T, y) 可以预先计算。仅在预先计算了 Gram 矩阵时才有用。
- copy_X:布尔,默认=真
如果
True
,X 将被复制;否则,它可能会被覆盖。- coef_init:ndarray 形状 (n_features, ), 默认=None
系数的初始值。
- verbose:bool 或 int,默认 = False
详细程度。
- return_n_iter:布尔,默认=假
是否返回迭代次数。
- positive:布尔,默认=假
如果设置为 True,则强制系数为正。 (仅在
y.ndim == 1
时允许)。- check_input:布尔,默认=真
如果设置为 False,则跳过输入验证检查(包括提供的 Gram 矩阵)。假设它们由调用者处理。
- **params:夸格斯
传递给坐标下降求解器的关键字参数。
- alphas:ndarray 形状 (n_alphas,)
沿着计算模型的路径的 alpha。
- coefs:ndarray 形状 (n_features, n_alphas) 或 (n_targets, n_features, n_alphas)
沿路径的系数。
- dual_gaps:ndarray 形状 (n_alphas,)
每个 alpha 优化结束时的对偶间隙。
- n_iters:int列表
坐标下降优化器为达到每个 alpha 的指定容差所采取的迭代次数。 (当
return_n_iter
设置为 True 时返回)。
参数:
返回:
注意:
例如,请参见例子/linear_model/plot_lasso_coordinate_descent_path.py.
相关用法
- Python sklearn extract_patches_2d用法及代码示例
- Python sklearn export_text用法及代码示例
- Python sklearn export_graphviz用法及代码示例
- Python sklearn euclidean_distances用法及代码示例
- Python sklearn empirical_covariance用法及代码示例
- Python sklearn explained_variance_score用法及代码示例
- Python sklearn jaccard_score用法及代码示例
- Python sklearn WhiteKernel用法及代码示例
- Python sklearn CalibrationDisplay.from_predictions用法及代码示例
- Python sklearn VotingRegressor用法及代码示例
- Python sklearn gen_batches用法及代码示例
- Python sklearn ExpSineSquared用法及代码示例
- Python sklearn MDS用法及代码示例
- Python sklearn adjusted_rand_score用法及代码示例
- Python sklearn MLPClassifier用法及代码示例
- Python sklearn train_test_split用法及代码示例
- Python sklearn RandomTreesEmbedding用法及代码示例
- Python sklearn GradientBoostingRegressor用法及代码示例
- Python sklearn GridSearchCV用法及代码示例
- Python sklearn log_loss用法及代码示例
- Python sklearn r2_score用法及代码示例
- Python sklearn ndcg_score用法及代码示例
- Python sklearn ShrunkCovariance用法及代码示例
- Python sklearn SelfTrainingClassifier用法及代码示例
- Python sklearn load_svmlight_file用法及代码示例
注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.linear_model.enet_path。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。