當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python sklearn ConstantKernel用法及代碼示例


本文簡要介紹python語言中 sklearn.gaussian_process.kernels.ConstantKernel 的用法。

用法:

class sklearn.gaussian_process.kernels.ConstantKernel(constant_value=1.0, constant_value_bounds=(1e-05, 100000.0))

常數內核。

可以用作product-kernel 的一部分,它可以縮放其他因子(內核)的大小,也可以用作sum-kernel 的一部分,它可以修改高斯過程的平均值。

添加一個常量內核相當於添加一個常量:

kernel = RBF() + ConstantKernel(constant_value=2)

是相同的:

kernel = RBF() + 2

在用戶指南中閱讀更多信息。

參數

constant_value浮點數,默認=1.0

定義協方差的常數值:k(x_1, x_2) = constant_value

constant_value_bounds一對浮點數 >= 0 或 “fixed”,默認 =(1e-5, 1e5)

constant_value 的下限和上限。如果設置為“fixed”,則在超參數調整期間無法更改constant_value

屬性

bounds

返回 theta 上的 log-transformed 邊界。

hyperparameter_constant_value
hyperparameters

返回所有超參數規範的列表。

n_dims

返回內核的非固定超參數的數量。

requires_vector_input

內核是否僅適用於固定長度的特征向量。

theta

返回(扁平化,log-transformed)非固定超參數。

例子

>>> from sklearn.datasets import make_friedman2
>>> from sklearn.gaussian_process import GaussianProcessRegressor
>>> from sklearn.gaussian_process.kernels import RBF, ConstantKernel
>>> X, y = make_friedman2(n_samples=500, noise=0, random_state=0)
>>> kernel = RBF() + ConstantKernel(constant_value=2)
>>> gpr = GaussianProcessRegressor(kernel=kernel, alpha=5,
...         random_state=0).fit(X, y)
>>> gpr.score(X, y)
0.3696...
>>> gpr.predict(X[:1,:], return_std=True)
(array([606.1...]), array([0.24...]))

相關用法


注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.gaussian_process.kernels.ConstantKernel。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。