當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python sklearn DotProduct用法及代碼示例


本文簡要介紹python語言中 sklearn.gaussian_process.kernels.DotProduct 的用法。

用法:

class sklearn.gaussian_process.kernels.DotProduct(sigma_0=1.0, sigma_0_bounds=(1e-05, 100000.0))

Dot-Product 內核。

DotProduct 內核是非平穩的,可以通過將 先驗放在 的係數上並將 的先驗放在偏置上,從線性回歸中獲得。 DotProduct 內核對於坐標繞原點的旋轉是不變的,但不是平移。它由控製內核不均勻性的參數 sigma_0 參數化。對於 ,核稱為齊次線性核,否則為非齊次核。內核由下式給出

DotProduct 內核通常與冪運算結合使用。

有關 DotProduct 內核的更多詳細信息,請參閱 [1] 第 4 章第 4.2 節。

在用戶指南中閱讀更多信息。

參數

sigma_0浮點數 >= 0,默認值=1.0

控製內核不均勻性的參數。如果 sigma_0=0,內核是同構的。

sigma_0_bounds一對浮點數 >= 0 或 “fixed”,默認 =(1e-5, 1e5)

‘sigma_0’ 的下限和上限。如果設置為“fixed”,則在超參數調整期間無法更改‘sigma_0’。

屬性

bounds

返回 theta 上的 log-transformed 邊界。

hyperparameter_sigma_0
hyperparameters

返回所有超參數規範的列表。

n_dims

返回內核的非固定超參數的數量。

requires_vector_input

返回內核是在固定長度特征向量還是通用對象上定義的。

theta

返回(扁平化,log-transformed)非固定超參數。

參考

1

卡爾·愛德華·拉斯穆森、克裏斯托弗·K·I·威廉姆斯 (2006)。 “機器學習的高斯過程”。麻省理工學院出版社。

例子

>>> from sklearn.datasets import make_friedman2
>>> from sklearn.gaussian_process import GaussianProcessRegressor
>>> from sklearn.gaussian_process.kernels import DotProduct, WhiteKernel
>>> X, y = make_friedman2(n_samples=500, noise=0, random_state=0)
>>> kernel = DotProduct() + WhiteKernel()
>>> gpr = GaussianProcessRegressor(kernel=kernel,
...         random_state=0).fit(X, y)
>>> gpr.score(X, y)
0.3680...
>>> gpr.predict(X[:2,:], return_std=True)
(array([653.0..., 592.1...]), array([316.6..., 316.6...]))

相關用法


注:本文由純淨天空篩選整理自scikit-learn.org大神的英文原創作品 sklearn.gaussian_process.kernels.DotProduct。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。