本文简要介绍python语言中 torch.unique
的用法。
用法:
torch.unique(*args, **kwargs)
一个张量或一个张量元组包含
输出(Tensor):唯一标量元素的输出列表。
inverse_indices(Tensor):(可选)如果
return_inverse
为 True,将有一个额外的返回张量(与输入的形状相同)表示原始输入中的元素映射到输出中的位置的索引;否则,此函数将仅返回一个张量。计数(Tensor):(可选)如果
return_counts
为 True 时,将有一个额外的返回张量(与输出或 output.size(dim) 相同的形状,如果指定了dim),表示每个唯一值或张量的出现次数。
返回输入张量的唯一元素。
注意
此函数与
torch.unique_consecutive()
的不同之处在于此函数还消除了不连续的重复值。注意
目前在 CUDA 实现和 CPU 实现中,当指定 dim 时,
torch.unique
始终在开头对张量进行排序,而不管sort
参数如何。排序可能会很慢,因此如果您的输入张量已经排序,建议使用torch.unique_consecutive()
,这样可以避免排序。例子:
>>> output = torch.unique(torch.tensor([1, 3, 2, 3], dtype=torch.long)) >>> output tensor([ 2, 3, 1]) >>> output, inverse_indices = torch.unique( ... torch.tensor([1, 3, 2, 3], dtype=torch.long), sorted=True, return_inverse=True) >>> output tensor([ 1, 2, 3]) >>> inverse_indices tensor([ 0, 2, 1, 2]) >>> output, inverse_indices = torch.unique( ... torch.tensor([[1, 3], [2, 3]], dtype=torch.long), sorted=True, return_inverse=True) >>> output tensor([ 1, 2, 3]) >>> inverse_indices tensor([[ 0, 2], [ 1, 2]])
参数:
返回:
返回类型:
相关用法
- Python PyTorch unique_consecutive用法及代码示例
- Python PyTorch unicode_csv_reader用法及代码示例
- Python PyTorch uniform_partition用法及代码示例
- Python PyTorch uniform_用法及代码示例
- Python PyTorch unused用法及代码示例
- Python PyTorch unbind用法及代码示例
- Python PyTorch unsqueeze用法及代码示例
- Python PyTorch use_deterministic_algorithms用法及代码示例
- Python PyTorch frexp用法及代码示例
- Python PyTorch jvp用法及代码示例
- Python PyTorch cholesky用法及代码示例
- Python PyTorch vdot用法及代码示例
- Python PyTorch ELU用法及代码示例
- Python PyTorch ScaledDotProduct.__init__用法及代码示例
- Python PyTorch gumbel_softmax用法及代码示例
- Python PyTorch get_tokenizer用法及代码示例
- Python PyTorch saved_tensors_hooks用法及代码示例
- Python PyTorch positive用法及代码示例
- Python PyTorch renorm用法及代码示例
- Python PyTorch AvgPool2d用法及代码示例
- Python PyTorch MaxUnpool3d用法及代码示例
- Python PyTorch Bernoulli用法及代码示例
- Python PyTorch Tensor.unflatten用法及代码示例
- Python PyTorch Sigmoid用法及代码示例
- Python PyTorch Tensor.register_hook用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.unique。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。