当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python sklearn DotProduct用法及代码示例


本文简要介绍python语言中 sklearn.gaussian_process.kernels.DotProduct 的用法。

用法:

class sklearn.gaussian_process.kernels.DotProduct(sigma_0=1.0, sigma_0_bounds=(1e-05, 100000.0))

Dot-Product 内核。

DotProduct 内核是非平稳的,可以通过将 先验放在 的系数上并将 的先验放在偏置上,从线性回归中获得。 DotProduct 内核对于坐标绕原点的旋转是不变的,但不是平移。它由控制内核不均匀性的参数 sigma_0 参数化。对于 ,核称为齐次线性核,否则为非齐次核。内核由下式给出

DotProduct 内核通常与幂运算结合使用。

有关 DotProduct 内核的更多详细信息,请参阅 [1] 第 4 章第 4.2 节。

在用户指南中阅读更多信息。

参数

sigma_0浮点数 >= 0,默认值=1.0

控制内核不均匀性的参数。如果 sigma_0=0,内核是同构的。

sigma_0_bounds一对浮点数 >= 0 或 “fixed”,默认 =(1e-5, 1e5)

‘sigma_0’ 的下限和上限。如果设置为“fixed”,则在超参数调整期间无法更改‘sigma_0’。

属性

bounds

返回 theta 上的 log-transformed 边界。

hyperparameter_sigma_0
hyperparameters

返回所有超参数规范的列表。

n_dims

返回内核的非固定超参数的数量。

requires_vector_input

返回内核是在固定长度特征向量还是通用对象上定义的。

theta

返回(扁平化,log-transformed)非固定超参数。

参考

1

卡尔·爱德华·拉斯穆森、克里斯托弗·K·I·威廉姆斯 (2006)。 “机器学习的高斯过程”。麻省理工学院出版社。

例子

>>> from sklearn.datasets import make_friedman2
>>> from sklearn.gaussian_process import GaussianProcessRegressor
>>> from sklearn.gaussian_process.kernels import DotProduct, WhiteKernel
>>> X, y = make_friedman2(n_samples=500, noise=0, random_state=0)
>>> kernel = DotProduct() + WhiteKernel()
>>> gpr = GaussianProcessRegressor(kernel=kernel,
...         random_state=0).fit(X, y)
>>> gpr.score(X, y)
0.3680...
>>> gpr.predict(X[:2,:], return_std=True)
(array([653.0..., 592.1...]), array([316.6..., 316.6...]))

相关用法


注:本文由纯净天空筛选整理自scikit-learn.org大神的英文原创作品 sklearn.gaussian_process.kernels.DotProduct。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。