當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python cuml.svm.LinearSVR用法及代碼示例


用法:

class cuml.svm.LinearSVR(Support Vector Regression with the linear kernel)

構建用於訓練和預測的線性 SVM 回歸器。

參數

handlecuml.Handle

指定 cuml.handle 保存用於此模型中計算的內部 CUDA 狀態。最重要的是,這指定了將用於模型計算的 CUDA 流,因此用戶可以通過在多個流中創建句柄在不同的流中同時運行不同的模型。如果為 None,則創建一個新的。

penalty{‘l1’, ‘l2’}(默認 = ‘l2’)

目標函數的正則化項。

loss{‘squared_epsilon_insensitive’, ‘epsilon_insensitive’}(默認 = ‘epsilon_insensitive’)

目標函數的損失項。

fit_intercept布爾值(默認 = True)

是否擬合偏差項。如果您希望數據已經居中,請設置為 False。

penalized_intercept布爾(默認 = 假)

當為真時,偏置項的處理方式與其他特征相同;即它受到目標函數的正則化項的懲罰。啟用此函數會強製複製輸入數據 X。

max_iterint(默認值 = 1000)

底層求解器的最大迭代次數。

linesearch_max_iterint(默認值 = 100)

底層 (QN) 求解器的最大線搜索(內循環)迭代次數。

lbfgs_memoryint(默認值 = 5)

用於底層 QN 求解器 (l-bfgs) 的近似粗麻布向量的數量。

verboseint 或布爾值,默認=False

設置日誌記錄級別。它必須是 cuml.common.logger.level_* 之一。有關詳細信息,請參閱詳細級別。

C浮點數(默認 = 1.0)
目標公式中損失項的常數比例因子

F(X, y) = penalty(X) + C * loss(X, y)

grad_tol浮點數(默認 = 0.0001)

底層 QN 求解器的梯度閾值。

change_tol浮點數(默認 = 1e-05)

底層 QN 求解器的函數變化閾值。

tol可選[浮點數](默認 = 無)

停止標準的容差。這是一個輔助瞬態參數,當存在時,將 grad_tolchange_tol 設置為相同的值。當同時傳遞兩個***_tol 參數中的任何一個時,它們優先。

epsilon浮點數(默認 = 0.0)

SVR 損失函數的epsilon-sensitivity 參數。

output_type{‘input’, ‘cudf’, ‘cupy’, ‘numpy’, ‘numba’},默認=無

用於控製估計器的結果和屬性的輸出類型的變量。如果為 None,它將繼承在模塊級別設置的輸出類型 cuml.global_settings.output_type 。有關詳細信息,請參閱輸出數據類型配置。

注意

該模型使用quasi-newton (QN) 求解器在原始空間中找到解。因此,與通用SVC 模型相比,它不計算支持係數/向量。

查看求解器的文檔以獲取更多詳細信息Quasi-Newton (L-BFGS/OWL-QN)

有關其他文檔,請參閱 scikitlearn’s LinearSVR

例子

import numpy as np
from cuml.svm import LinearSVR
X = np.array([[1], [2], [3], [4], [5]], dtype=np.float32)
y = np.array([1.1, 4, 5, 3.9, 8.], dtype=np.float32)
reg = LinearSVR(loss='epsilon_insensitive', C=10, epsilon=0.1)
reg.fit(X, y)
print("Predicted values:", reg.predict(X))

輸出:

Predicted labels: [1.3187336 2.9640512 4.609369  6.2546864 7.9000034]

屬性

intercept_浮點數,形狀 (1,)

決策函數中的常數

coef_浮點數,形狀(1,n_cols)

線性決策函數的係數。

相關用法


注:本文由純淨天空篩選整理自rapids.ai大神的英文原創作品 cuml.svm.LinearSVR。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。