当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python cuml.dask.decomposition.TruncatedSVD用法及代码示例


用法:

class cuml.dask.decomposition.TruncatedSVD(*, client=None, **kwargs)

参数

handlecuml.Handle

指定 cuml.handle 保存用于此模型中计算的内部 CUDA 状态。最重要的是,这指定了将用于模型计算的 CUDA 流,因此用户可以通过在多个流中创建句柄在不同的流中同时运行不同的模型。如果为 None,则创建一个新的。

n_componentsint(默认值 = 1)

您想要的前 K 个奇异向量/值的数量。必须是 <= 数字(列)。

svd_solver‘full’

仅支持完整算法,因为它在 GPU 上的速度明显快于其他求解器,包括随机 SVD。

verboseint 或布尔值,默认=False

设置日志记录级别。它必须是 cuml.common.logger.level_* 之一。有关详细信息,请参阅详细级别。

例子

from dask_cuda import LocalCUDACluster
from dask.distributed import Client, wait
import numpy as np
from cuml.dask.decomposition import TruncatedSVD
from cuml.dask.datasets import make_blobs

cluster = LocalCUDACluster(threads_per_worker=1)
client = Client(cluster)

nrows = 6
ncols = 3
n_parts = 2

X_cudf, _ = make_blobs(nrows, ncols, 1, n_parts,
                cluster_std=1.8,
                verbose=cuml.logger.level_info,
                random_state=10, dtype=np.float32)

wait(X_cudf)

print("Input Matrix")
print(X_cudf.compute())

cumlModel = TruncatedSVD(n_components = 1)
XT = cumlModel.fit_transform(X_cudf)

print("Transformed Input Matrix")
print(XT.compute())

输出:

Input Matrix:
                    0         1          2
          0 -8.519647 -8.519222  -8.865648
          1 -6.107700 -8.350124 -10.351215
          2 -8.026635 -9.442240  -7.561770
          0 -8.519647 -8.519222  -8.865648
          1 -6.107700 -8.350124 -10.351215
          2 -8.026635 -9.442240  -7.561770

Transformed Input Matrix:
                     0
          0  14.928891
          1  14.487295
          2  14.431235
          0  14.928891
          1  14.487295
          2  14.431235

注意

每次运行此代码时,输出都会有所不同,因为 “make_blobs” 函数会生成随机矩阵。

属性

components_数组

U, S, VT = svd(X) 中的前 K 个分量 (VT.T[:,:n_components])

explained_variance_数组

每个组件在多大程度上解释了 S**2 给出的数据中的差异

explained_variance_ratio_数组

S**2/sum(S**2) 解释了多少百分比的方差

singular_values_数组

前 K 个奇异值。记住所有奇异值 >= 0

相关用法


注:本文由纯净天空筛选整理自rapids.ai大神的英文原创作品 cuml.dask.decomposition.TruncatedSVD。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。