本文简要介绍python语言中 sklearn.linear_model.SGDOneClassSVM
的用法。
用法:
class sklearn.linear_model.SGDOneClassSVM(nu=0.5, fit_intercept=True, max_iter=1000, tol=0.001, shuffle=True, verbose=0, random_state=None, learning_rate='optimal', eta0=0.0, power_t=0.5, warm_start=False, average=False)
使用随机梯度下降求解线性One-Class SVM。
此实现旨在与内核近似技术(例如
sklearn.kernel_approximation.Nystroem
)一起使用,以获得类似于默认使用高斯内核的sklearn.svm.OneClassSVM
的结果。在用户指南中阅读更多信息。
- nu:浮点数,默认=0.5
One Class SVM 的 nu 参数:训练误差分数的上限和支持向量分数的下限。应该在 (0, 1] 区间内。默认取 0.5。
- fit_intercept:布尔,默认=真
是否应该估计截距。默认为真。
- max_iter:整数,默认=1000
训练数据的最大传递次数(又名 epochs)。它只影响
fit
方法中的行为,而不影响partial_fit
。默认为 1000。- tol:浮点数或无,默认=1e-3
停止标准。如果不是 None,迭代将在 (loss > previous_loss - tol) 时停止。默认为 1e-3。
- shuffle:布尔,默认=真
是否应该在每个 epoch 之后对训练数据进行洗牌。默认为真。
- verbose:整数,默认=0
详细程度。
- random_state:int、RandomState 实例或无,默认=无
混洗数据时使用的伪随机数生成器的种子。如果是int,random_state是随机数生成器使用的种子;如果RandomState实例,random_state是随机数生成器;如果为 None,则随机数生成器是
np.random
使用的 RandomState 实例。- learning_rate:{‘constant’, ‘optimal’, ‘invscaling’, ‘adaptive’},默认='最佳'
与
fit
一起使用的学习率计划。 (如果使用partial_fit
,必须直接控制学习率)。- ‘constant’:
eta = eta0
- ‘optimal’:
eta = 1.0 / (alpha * (t + t0))
其中 t0 由 Leon Bottou 提出的启发式方法选择。 - ‘invscaling’:
eta = eta0 / pow(t, power_t)
- ‘adaptive’:eta = eta0,只要训练不断减少。如果 early_stopping 为 True,则每次 n_iter_no_change 个连续 epoch 未能将训练损失减少 tol 或未能将验证分数增加 tol,则当前学习率除以 5。
- ‘constant’:
- eta0:浮点数,默认=0.0
‘constant’, ‘invscaling’ 或 ‘adaptive’ 计划的初始学习率。默认值为 0.0,因为默认计划 ‘optimal’ 不使用 eta0。
- power_t:浮点数,默认=0.5
逆缩放学习率的 index [默认 0.5]。
- warm_start:布尔,默认=假
当设置为 True 时,重用之前调用的解决方案作为初始化,否则,只需擦除之前的解决方案。请参阅词汇表。
当 warm_start 为 True 时重复调用 fit 或 partial_fit 可能会导致与单次调用 fit 时不同的解决方案,因为数据被打乱的方式。如果使用动态学习率,则根据已经看到的样本数量调整学习率。调用
fit
重置此计数器,而partial_fit
将导致增加现有计数器。- average:bool 或 int,默认 = False
设置为 True 时,计算平均 SGD 权重并将结果存储在
coef_
属性中。如果设置为大于 1 的 int,则一旦看到的样本总数达到平均值,就会开始求平均值。因此average=10
将在看到 10 个样本后开始求平均值。
- coef_:ndarray 形状 (1, n_features)
分配给特征的权重。
- offset_:ndarray 形状 (1,)
用于从原始分数定义决策函数的偏移量。我们有关系:decision_function = score_samples - 偏移量。
- n_iter_:int
达到停止标准的实际迭代次数。
- t_:int
训练期间执行的权重更新次数。与
(n_iter_ * n_samples)
相同。- loss_function_:具体
LossFunction
- n_features_in_:int
拟合期间看到的特征数。
- feature_names_in_:ndarray 形状(
n_features_in_
,) 拟合期间看到的特征名称。仅当
X
具有全为字符串的函数名称时才定义。
参数:
属性:
注意:
该估计器在训练样本数量上具有线性复杂性,因此比
sklearn.svm.OneClassSVM
实现更适合具有大量训练样本(例如 > 10,000)的数据集。例子:
>>> import numpy as np >>> from sklearn import linear_model >>> X = np.array([[-1, -1], [-2, -1], [1, 1], [2, 1]]) >>> clf = linear_model.SGDOneClassSVM(random_state=42) >>> clf.fit(X) SGDOneClassSVM(random_state=42)
>>> print(clf.predict([[4, 4]])) [1]
相关用法
- Python sklearn SGDRegressor用法及代码示例
- Python sklearn SGDClassifier用法及代码示例
- Python sklearn ShrunkCovariance用法及代码示例
- Python sklearn SelfTrainingClassifier用法及代码示例
- Python sklearn SelectFromModel用法及代码示例
- Python sklearn SparsePCA用法及代码示例
- Python sklearn SpectralEmbedding用法及代码示例
- Python sklearn SelectFpr用法及代码示例
- Python sklearn ShuffleSplit用法及代码示例
- Python sklearn StratifiedGroupKFold用法及代码示例
- Python sklearn SpectralClustering用法及代码示例
- Python sklearn Sum用法及代码示例
- Python sklearn SpectralBiclustering用法及代码示例
- Python sklearn SVR用法及代码示例
- Python sklearn SelectKBest用法及代码示例
- Python sklearn SimpleImputer用法及代码示例
- Python sklearn StratifiedShuffleSplit用法及代码示例
- Python sklearn SVC用法及代码示例
- Python sklearn SequentialFeatureSelector用法及代码示例
- Python sklearn SplineTransformer用法及代码示例
- Python sklearn SelectPercentile用法及代码示例
- Python sklearn SkewedChi2Sampler用法及代码示例
- Python sklearn SparseCoder用法及代码示例
- Python sklearn StratifiedKFold用法及代码示例
- Python sklearn SparseRandomProjection用法及代码示例
注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.linear_model.SGDOneClassSVM。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。