本文簡要介紹python語言中 sklearn.linear_model.RidgeClassifierCV 的用法。
- 用法:- class sklearn.linear_model.RidgeClassifierCV(alphas=(0.1, 1.0, 10.0), *, fit_intercept=True, normalize='deprecated', scoring=None, cv=None, class_weight=None, store_cv_values=False)
- 具有內置交叉驗證的嶺分類器。 - 請參閱交叉驗證估計器的詞匯表條目。 - 默認情況下,它執行留一交叉驗證。目前,僅能有效處理 n_features > n_samples 的情況。 - 在用戶指南中閱讀更多信息。 - alphas:ndarray 形狀 (n_alphas,),默認 = (0.1, 1.0, 10.0)
- 要嘗試的 alpha 值數組。正則化強度;必須是正浮點數。正則化改善了問題的條件並減少了估計的方差。較大的值指定更強的正則化。 Alpha 對應於其他線性模型中的 - 1 / (2C),例如- LogisticRegression或- LinearSVC。
- fit_intercept:布爾,默認=真
- 是否計算此模型的截距。如果設置為 false,則不會在計算中使用截距(即數據應居中)。 
- normalize:布爾,默認=假
- 當 - fit_intercept設置為 False 時忽略此參數。如果為 True,則回歸量 X 將在回歸前通過減去均值並除以 l2 範數進行歸一化。如果您希望標準化,請在使用- normalize=False對估計器調用- fit之前使用- StandardScaler。
- scoring:str,可調用,默認=無
- 一個字符串(參見模型評估文檔)或帶有簽名 - scorer(estimator, X, y)的記分器可調用對象/函數。
- cv:int,交叉驗證生成器或可迭代的,默認=無
- 確定交叉驗證拆分策略。 cv 的可能輸入是: - 無,使用高效的留一法交叉驗證
- 整數,指定折疊次數。
- CV分配器,
- 一個可迭代的 yield (train, test) 拆分為索引數組。
 - 有關可在此處使用的各種交叉驗證策略,請參閱用戶指南。 
- class_weight:dict或‘balanced’,默認=無
- 與 - {class_label: weight}形式的類關聯的權重。如果沒有給出,所有的類都應該有一個權重。- “balanced” 模式使用 y 的值自動調整與輸入數據中的類頻率成反比的權重,如 - n_samples / (n_classes * np.bincount(y))。
- store_cv_values:布爾,默認=假
- 指示與每個 alpha 對應的交叉驗證值是否應存儲在 - cv_values_屬性中的標誌(見下文)。該標誌僅與- cv=None兼容(即使用留一交叉驗證)。
 
- cv_values_:ndarray 形狀(n_samples,n_targets,n_alphas),可選
- 每個 alpha 的交叉驗證值(僅當 - store_cv_values=True和- cv=None時)。調用- fit()後,如果- scoring is None,此屬性將包含均方誤差,否則它將包含標準化的每點預測值。
- coef_:ndarray 形狀 (1, n_features) 或 (n_targets, n_features)
- 決策函數中特征的係數。 - 當給定問題是二進製時, - coef_的形狀為 (1, n_features)。
- intercept_:形狀的浮點數或 ndarray (n_targets,)
- 決策函數中的獨立項。如果 - fit_intercept = False則設置為 0.0。
- alpha_:浮點數
- 估計的正則化參數。 
- best_score_:浮點數
- 具有最佳 alpha 的基本估計器的分數。 
- classes_ndarray 形狀 (n_classes,)
- 類標簽。 
- n_features_in_:int
- 擬合期間看到的特征數。 
- feature_names_in_:ndarray 形狀(n_features_in_,)
- 擬合期間看到的特征名稱。僅當 - X具有全為字符串的函數名稱時才定義。
 
 - 參數:- 屬性:- 注意:- 對於多類分類,n_class 分類器采用 one-versus-all 方法進行訓練。具體來說,這是通過利用 Ridge 中的 multi-variate 響應支持來實現的。 - 例子:- >>> from sklearn.datasets import load_breast_cancer >>> from sklearn.linear_model import RidgeClassifierCV >>> X, y = load_breast_cancer(return_X_y=True) >>> clf = RidgeClassifierCV(alphas=[1e-3, 1e-2, 1e-1, 1]).fit(X, y) >>> clf.score(X, y) 0.9630...
相關用法
- Python sklearn RidgeClassifier用法及代碼示例
- Python sklearn RidgeCV用法及代碼示例
- Python sklearn Ridge用法及代碼示例
- Python sklearn RandomTreesEmbedding用法及代碼示例
- Python sklearn RocCurveDisplay用法及代碼示例
- Python sklearn RadiusNeighborsTransformer用法及代碼示例
- Python sklearn RadiusNeighborsRegressor.radius_neighbors_graph用法及代碼示例
- Python sklearn RandomizedSearchCV用法及代碼示例
- Python sklearn RFE用法及代碼示例
- Python sklearn RadiusNeighborsClassifier用法及代碼示例
- Python sklearn RegressorChain用法及代碼示例
- Python sklearn RandomForestClassifier用法及代碼示例
- Python sklearn RadiusNeighborsTransformer.radius_neighbors_graph用法及代碼示例
- Python sklearn RANSACRegressor用法及代碼示例
- Python sklearn RobustScaler用法及代碼示例
- Python sklearn RandomForestRegressor用法及代碼示例
- Python sklearn RepeatedStratifiedKFold用法及代碼示例
- Python sklearn RocCurveDisplay.from_estimator用法及代碼示例
- Python sklearn RadiusNeighborsRegressor用法及代碼示例
- Python sklearn RBF用法及代碼示例
- Python sklearn RadiusNeighborsTransformer.radius_neighbors用法及代碼示例
- Python sklearn RocCurveDisplay.from_predictions用法及代碼示例
- Python sklearn RadiusNeighborsRegressor.radius_neighbors用法及代碼示例
- Python sklearn RepeatedKFold用法及代碼示例
- Python sklearn RBFSampler用法及代碼示例
注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.linear_model.RidgeClassifierCV。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。
