本文简要介绍python语言中 sklearn.linear_model.RidgeClassifierCV
的用法。
用法:
class sklearn.linear_model.RidgeClassifierCV(alphas=(0.1, 1.0, 10.0), *, fit_intercept=True, normalize='deprecated', scoring=None, cv=None, class_weight=None, store_cv_values=False)
具有内置交叉验证的岭分类器。
请参阅交叉验证估计器的词汇表条目。
默认情况下,它执行留一交叉验证。目前,仅能有效处理 n_features > n_samples 的情况。
在用户指南中阅读更多信息。
- alphas:ndarray 形状 (n_alphas,),默认 = (0.1, 1.0, 10.0)
要尝试的 alpha 值数组。正则化强度;必须是正浮点数。正则化改善了问题的条件并减少了估计的方差。较大的值指定更强的正则化。 Alpha 对应于其他线性模型中的
1 / (2C)
,例如LogisticRegression
或LinearSVC
。- fit_intercept:布尔,默认=真
是否计算此模型的截距。如果设置为 false,则不会在计算中使用截距(即数据应居中)。
- normalize:布尔,默认=假
当
fit_intercept
设置为 False 时忽略此参数。如果为 True,则回归量 X 将在回归前通过减去均值并除以 l2 范数进行归一化。如果您希望标准化,请在使用normalize=False
对估计器调用fit
之前使用StandardScaler
。- scoring:str,可调用,默认=无
一个字符串(参见模型评估文档)或带有签名
scorer(estimator, X, y)
的记分器可调用对象/函数。- cv:int,交叉验证生成器或可迭代的,默认=无
确定交叉验证拆分策略。 cv 的可能输入是:
- 无,使用高效的留一法交叉验证
- 整数,指定折叠次数。
- CV分配器,
- 一个可迭代的 yield (train, test) 拆分为索引数组。
有关可在此处使用的各种交叉验证策略,请参阅用户指南。
- class_weight:dict或‘balanced’,默认=无
与
{class_label: weight}
形式的类关联的权重。如果没有给出,所有的类都应该有一个权重。“balanced” 模式使用 y 的值自动调整与输入数据中的类频率成反比的权重,如
n_samples / (n_classes * np.bincount(y))
。- store_cv_values:布尔,默认=假
指示与每个 alpha 对应的交叉验证值是否应存储在
cv_values_
属性中的标志(见下文)。该标志仅与cv=None
兼容(即使用留一交叉验证)。
- cv_values_:ndarray 形状(n_samples,n_targets,n_alphas),可选
每个 alpha 的交叉验证值(仅当
store_cv_values=True
和cv=None
时)。调用fit()
后,如果scoring is None
,此属性将包含均方误差,否则它将包含标准化的每点预测值。- coef_:ndarray 形状 (1, n_features) 或 (n_targets, n_features)
决策函数中特征的系数。
当给定问题是二进制时,
coef_
的形状为 (1, n_features)。- intercept_:形状的浮点数或 ndarray (n_targets,)
决策函数中的独立项。如果
fit_intercept = False
则设置为 0.0。- alpha_:浮点数
估计的正则化参数。
- best_score_:浮点数
具有最佳 alpha 的基本估计器的分数。
classes_
ndarray 形状 (n_classes,)类标签。
- n_features_in_:int
拟合期间看到的特征数。
- feature_names_in_:ndarray 形状(
n_features_in_
,) 拟合期间看到的特征名称。仅当
X
具有全为字符串的函数名称时才定义。
参数:
属性:
注意:
对于多类分类,n_class 分类器采用 one-versus-all 方法进行训练。具体来说,这是通过利用 Ridge 中的 multi-variate 响应支持来实现的。
例子:
>>> from sklearn.datasets import load_breast_cancer >>> from sklearn.linear_model import RidgeClassifierCV >>> X, y = load_breast_cancer(return_X_y=True) >>> clf = RidgeClassifierCV(alphas=[1e-3, 1e-2, 1e-1, 1]).fit(X, y) >>> clf.score(X, y) 0.9630...
相关用法
- Python sklearn RidgeClassifier用法及代码示例
- Python sklearn RidgeCV用法及代码示例
- Python sklearn Ridge用法及代码示例
- Python sklearn RandomTreesEmbedding用法及代码示例
- Python sklearn RocCurveDisplay用法及代码示例
- Python sklearn RadiusNeighborsTransformer用法及代码示例
- Python sklearn RadiusNeighborsRegressor.radius_neighbors_graph用法及代码示例
- Python sklearn RandomizedSearchCV用法及代码示例
- Python sklearn RFE用法及代码示例
- Python sklearn RadiusNeighborsClassifier用法及代码示例
- Python sklearn RegressorChain用法及代码示例
- Python sklearn RandomForestClassifier用法及代码示例
- Python sklearn RadiusNeighborsTransformer.radius_neighbors_graph用法及代码示例
- Python sklearn RANSACRegressor用法及代码示例
- Python sklearn RobustScaler用法及代码示例
- Python sklearn RandomForestRegressor用法及代码示例
- Python sklearn RepeatedStratifiedKFold用法及代码示例
- Python sklearn RocCurveDisplay.from_estimator用法及代码示例
- Python sklearn RadiusNeighborsRegressor用法及代码示例
- Python sklearn RBF用法及代码示例
- Python sklearn RadiusNeighborsTransformer.radius_neighbors用法及代码示例
- Python sklearn RocCurveDisplay.from_predictions用法及代码示例
- Python sklearn RadiusNeighborsRegressor.radius_neighbors用法及代码示例
- Python sklearn RepeatedKFold用法及代码示例
- Python sklearn RBFSampler用法及代码示例
注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.linear_model.RidgeClassifierCV。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。