当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python cuml.svm.LinearSVR用法及代码示例


用法:

class cuml.svm.LinearSVR(Support Vector Regression with the linear kernel)

构建用于训练和预测的线性 SVM 回归器。

参数

handlecuml.Handle

指定 cuml.handle 保存用于此模型中计算的内部 CUDA 状态。最重要的是,这指定了将用于模型计算的 CUDA 流,因此用户可以通过在多个流中创建句柄在不同的流中同时运行不同的模型。如果为 None,则创建一个新的。

penalty{‘l1’, ‘l2’}(默认 = ‘l2’)

目标函数的正则化项。

loss{‘squared_epsilon_insensitive’, ‘epsilon_insensitive’}(默认 = ‘epsilon_insensitive’)

目标函数的损失项。

fit_intercept布尔值(默认 = True)

是否拟合偏差项。如果您希望数据已经居中,请设置为 False。

penalized_intercept布尔(默认 = 假)

当为真时,偏置项的处理方式与其他特征相同;即它受到目标函数的正则化项的惩罚。启用此函数会强制复制输入数据 X。

max_iterint(默认值 = 1000)

底层求解器的最大迭代次数。

linesearch_max_iterint(默认值 = 100)

底层 (QN) 求解器的最大线搜索(内循环)迭代次数。

lbfgs_memoryint(默认值 = 5)

用于底层 QN 求解器 (l-bfgs) 的近似粗麻布向量的数量。

verboseint 或布尔值,默认=False

设置日志记录级别。它必须是 cuml.common.logger.level_* 之一。有关详细信息,请参阅详细级别。

C浮点数(默认 = 1.0)
目标公式中损失项的常数比例因子

F(X, y) = penalty(X) + C * loss(X, y)

grad_tol浮点数(默认 = 0.0001)

底层 QN 求解器的梯度阈值。

change_tol浮点数(默认 = 1e-05)

底层 QN 求解器的函数变化阈值。

tol可选[浮点数](默认 = 无)

停止标准的容差。这是一个辅助瞬态参数,当存在时,将 grad_tolchange_tol 设置为相同的值。当同时传递两个***_tol 参数中的任何一个时,它们优先。

epsilon浮点数(默认 = 0.0)

SVR 损失函数的epsilon-sensitivity 参数。

output_type{‘input’, ‘cudf’, ‘cupy’, ‘numpy’, ‘numba’},默认=无

用于控制估计器的结果和属性的输出类型的变量。如果为 None,它将继承在模块级别设置的输出类型 cuml.global_settings.output_type 。有关详细信息,请参阅输出数据类型配置。

注意

该模型使用quasi-newton (QN) 求解器在原始空间中找到解。因此,与通用SVC 模型相比,它不计算支持系数/向量。

查看求解器的文档以获取更多详细信息Quasi-Newton (L-BFGS/OWL-QN)

有关其他文档,请参阅 scikitlearn’s LinearSVR

例子

import numpy as np
from cuml.svm import LinearSVR
X = np.array([[1], [2], [3], [4], [5]], dtype=np.float32)
y = np.array([1.1, 4, 5, 3.9, 8.], dtype=np.float32)
reg = LinearSVR(loss='epsilon_insensitive', C=10, epsilon=0.1)
reg.fit(X, y)
print("Predicted values:", reg.predict(X))

输出:

Predicted labels: [1.3187336 2.9640512 4.609369  6.2546864 7.9000034]

属性

intercept_浮点数,形状 (1,)

决策函数中的常数

coef_浮点数,形状(1,n_cols)

线性决策函数的系数。

相关用法


注:本文由纯净天空筛选整理自rapids.ai大神的英文原创作品 cuml.svm.LinearSVR。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。