当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python sklearn ConstantKernel用法及代码示例


本文简要介绍python语言中 sklearn.gaussian_process.kernels.ConstantKernel 的用法。

用法:

class sklearn.gaussian_process.kernels.ConstantKernel(constant_value=1.0, constant_value_bounds=(1e-05, 100000.0))

常数内核。

可以用作product-kernel 的一部分,它可以缩放其他因子(内核)的大小,也可以用作sum-kernel 的一部分,它可以修改高斯过程的平均值。

添加一个常量内核相当于添加一个常量:

kernel = RBF() + ConstantKernel(constant_value=2)

是相同的:

kernel = RBF() + 2

在用户指南中阅读更多信息。

参数

constant_value浮点数,默认=1.0

定义协方差的常数值:k(x_1, x_2) = constant_value

constant_value_bounds一对浮点数 >= 0 或 “fixed”,默认 =(1e-5, 1e5)

constant_value 的下限和上限。如果设置为“fixed”,则在超参数调整期间无法更改constant_value

属性

bounds

返回 theta 上的 log-transformed 边界。

hyperparameter_constant_value
hyperparameters

返回所有超参数规范的列表。

n_dims

返回内核的非固定超参数的数量。

requires_vector_input

内核是否仅适用于固定长度的特征向量。

theta

返回(扁平化,log-transformed)非固定超参数。

例子

>>> from sklearn.datasets import make_friedman2
>>> from sklearn.gaussian_process import GaussianProcessRegressor
>>> from sklearn.gaussian_process.kernels import RBF, ConstantKernel
>>> X, y = make_friedman2(n_samples=500, noise=0, random_state=0)
>>> kernel = RBF() + ConstantKernel(constant_value=2)
>>> gpr = GaussianProcessRegressor(kernel=kernel, alpha=5,
...         random_state=0).fit(X, y)
>>> gpr.score(X, y)
0.3696...
>>> gpr.predict(X[:1,:], return_std=True)
(array([606.1...]), array([0.24...]))

相关用法


注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.gaussian_process.kernels.ConstantKernel。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。