當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python sklearn OrthogonalMatchingPursuit用法及代碼示例


本文簡要介紹python語言中 sklearn.linear_model.OrthogonalMatchingPursuit 的用法。

用法:

class sklearn.linear_model.OrthogonalMatchingPursuit(*, n_nonzero_coefs=None, tol=None, fit_intercept=True, normalize='deprecated', precompute='auto')

正交匹配追蹤模型 (OMP)。

在用戶指南中閱讀更多信息。

參數

n_nonzero_coefs整數,默認=無

解決方案中所需的非零條目數。如果 None (默認情況下)此值設置為 n_features 的 10%。

tol浮點數,默認=無

殘差的最大範數。如果不是 None,則覆蓋 n_nonzero_coefs。

fit_intercept布爾,默認=真

是否計算此模型的截距。如果設置為 false,則不會在計算中使用截距(即數據應居中)。

normalize布爾,默認=真

fit_intercept 設置為 False 時忽略此參數。如果為 True,則回歸量 X 將在回歸前通過減去均值並除以 l2 範數進行歸一化。如果您希望標準化,請在使用 normalize=False 對估計器調用 fit 之前使用 StandardScaler

precompute‘auto’ 或布爾值,默認='auto'

是否使用預先計算的 Gram 和 Xy 矩陣來加速計算。當 n_targets 或 n_samples 非常大時提高性能。請注意,如果您已經有這樣的矩陣,則可以將它們直接傳遞給 fit 方法。

屬性

coef_ndarray 形狀 (n_features,) 或 (n_targets, n_features)

參數向量(公式中的 w)。

intercept_形狀的浮點數或 ndarray (n_targets,)

決策函數中的獨立項。

n_iter_int 或類似數組

每個目標的活動特征數。

n_nonzero_coefs_int

解中非零係數的數量。如果 n_nonzero_coefs 為 None 並且 tol 為 None 此值設置為 n_features 的 10% 或 1,以較大者為準。

n_features_in_int

擬合期間看到的特征數。

feature_names_in_ndarray 形狀(n_features_in_,)

擬合期間看到的特征名稱。僅當 X 具有全為字符串的函數名稱時才定義。

注意

G. Mallat, Z. Zhang, Matching tracking with time-frequency dictionaries, IEEE Transactions on Signal Processing, Vol. 中介紹了正交匹配追蹤。 41,第 12 期。(1993 年 12 月),第 3397-3415 頁。 (http://blanche.polytechnique.fr/~mallat/papiers/MallatPursuit93.pdf)

此實現基於 Rubinstein, R.、Zibulevsky, M. 和 Elad, M.,使用批量正交匹配追蹤技術報告的 K-SVD 算法的有效實現 - CS Technion,2008 年 4 月。https://www.cs.technion.ac.il/~ronrubin/Publications/KSVD-OMP-v2.pdf

例子

>>> from sklearn.linear_model import OrthogonalMatchingPursuit
>>> from sklearn.datasets import make_regression
>>> X, y = make_regression(noise=4, random_state=0)
>>> reg = OrthogonalMatchingPursuit(normalize=False).fit(X, y)
>>> reg.score(X, y)
0.9991...
>>> reg.predict(X[:1,])
array([-78.3854...])

相關用法


注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.linear_model.OrthogonalMatchingPursuit。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。