本文簡要介紹python語言中 sklearn.linear_model.RidgeClassifierCV
的用法。
用法:
class sklearn.linear_model.RidgeClassifierCV(alphas=(0.1, 1.0, 10.0), *, fit_intercept=True, normalize='deprecated', scoring=None, cv=None, class_weight=None, store_cv_values=False)
具有內置交叉驗證的嶺分類器。
請參閱交叉驗證估計器的詞匯表條目。
默認情況下,它執行留一交叉驗證。目前,僅能有效處理 n_features > n_samples 的情況。
在用戶指南中閱讀更多信息。
- alphas:ndarray 形狀 (n_alphas,),默認 = (0.1, 1.0, 10.0)
要嘗試的 alpha 值數組。正則化強度;必須是正浮點數。正則化改善了問題的條件並減少了估計的方差。較大的值指定更強的正則化。 Alpha 對應於其他線性模型中的
1 / (2C)
,例如LogisticRegression
或LinearSVC
。- fit_intercept:布爾,默認=真
是否計算此模型的截距。如果設置為 false,則不會在計算中使用截距(即數據應居中)。
- normalize:布爾,默認=假
當
fit_intercept
設置為 False 時忽略此參數。如果為 True,則回歸量 X 將在回歸前通過減去均值並除以 l2 範數進行歸一化。如果您希望標準化,請在使用normalize=False
對估計器調用fit
之前使用StandardScaler
。- scoring:str,可調用,默認=無
一個字符串(參見模型評估文檔)或帶有簽名
scorer(estimator, X, y)
的記分器可調用對象/函數。- cv:int,交叉驗證生成器或可迭代的,默認=無
確定交叉驗證拆分策略。 cv 的可能輸入是:
- 無,使用高效的留一法交叉驗證
- 整數,指定折疊次數。
- CV分配器,
- 一個可迭代的 yield (train, test) 拆分為索引數組。
有關可在此處使用的各種交叉驗證策略,請參閱用戶指南。
- class_weight:dict或‘balanced’,默認=無
與
{class_label: weight}
形式的類關聯的權重。如果沒有給出,所有的類都應該有一個權重。“balanced” 模式使用 y 的值自動調整與輸入數據中的類頻率成反比的權重,如
n_samples / (n_classes * np.bincount(y))
。- store_cv_values:布爾,默認=假
指示與每個 alpha 對應的交叉驗證值是否應存儲在
cv_values_
屬性中的標誌(見下文)。該標誌僅與cv=None
兼容(即使用留一交叉驗證)。
- cv_values_:ndarray 形狀(n_samples,n_targets,n_alphas),可選
每個 alpha 的交叉驗證值(僅當
store_cv_values=True
和cv=None
時)。調用fit()
後,如果scoring is None
,此屬性將包含均方誤差,否則它將包含標準化的每點預測值。- coef_:ndarray 形狀 (1, n_features) 或 (n_targets, n_features)
決策函數中特征的係數。
當給定問題是二進製時,
coef_
的形狀為 (1, n_features)。- intercept_:形狀的浮點數或 ndarray (n_targets,)
決策函數中的獨立項。如果
fit_intercept = False
則設置為 0.0。- alpha_:浮點數
估計的正則化參數。
- best_score_:浮點數
具有最佳 alpha 的基本估計器的分數。
classes_
ndarray 形狀 (n_classes,)類標簽。
- n_features_in_:int
擬合期間看到的特征數。
- feature_names_in_:ndarray 形狀(
n_features_in_
,) 擬合期間看到的特征名稱。僅當
X
具有全為字符串的函數名稱時才定義。
參數:
屬性:
注意:
對於多類分類,n_class 分類器采用 one-versus-all 方法進行訓練。具體來說,這是通過利用 Ridge 中的 multi-variate 響應支持來實現的。
例子:
>>> from sklearn.datasets import load_breast_cancer >>> from sklearn.linear_model import RidgeClassifierCV >>> X, y = load_breast_cancer(return_X_y=True) >>> clf = RidgeClassifierCV(alphas=[1e-3, 1e-2, 1e-1, 1]).fit(X, y) >>> clf.score(X, y) 0.9630...
相關用法
- Python sklearn RidgeClassifier用法及代碼示例
- Python sklearn RidgeCV用法及代碼示例
- Python sklearn Ridge用法及代碼示例
- Python sklearn RandomTreesEmbedding用法及代碼示例
- Python sklearn RocCurveDisplay用法及代碼示例
- Python sklearn RadiusNeighborsTransformer用法及代碼示例
- Python sklearn RadiusNeighborsRegressor.radius_neighbors_graph用法及代碼示例
- Python sklearn RandomizedSearchCV用法及代碼示例
- Python sklearn RFE用法及代碼示例
- Python sklearn RadiusNeighborsClassifier用法及代碼示例
- Python sklearn RegressorChain用法及代碼示例
- Python sklearn RandomForestClassifier用法及代碼示例
- Python sklearn RadiusNeighborsTransformer.radius_neighbors_graph用法及代碼示例
- Python sklearn RANSACRegressor用法及代碼示例
- Python sklearn RobustScaler用法及代碼示例
- Python sklearn RandomForestRegressor用法及代碼示例
- Python sklearn RepeatedStratifiedKFold用法及代碼示例
- Python sklearn RocCurveDisplay.from_estimator用法及代碼示例
- Python sklearn RadiusNeighborsRegressor用法及代碼示例
- Python sklearn RBF用法及代碼示例
- Python sklearn RadiusNeighborsTransformer.radius_neighbors用法及代碼示例
- Python sklearn RocCurveDisplay.from_predictions用法及代碼示例
- Python sklearn RadiusNeighborsRegressor.radius_neighbors用法及代碼示例
- Python sklearn RepeatedKFold用法及代碼示例
- Python sklearn RBFSampler用法及代碼示例
注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.linear_model.RidgeClassifierCV。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。