当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python PyTorch baddbmm用法及代码示例


本文简要介绍python语言中 torch.baddbmm 的用法。

用法:

torch.baddbmm(input, batch1, batch2, *, beta=1, alpha=1, out=None) → Tensor

参数

  • input(Tensor) -要添加的张量

  • batch1(Tensor) -第一批要相乘的矩阵

  • batch2(Tensor) -第二批要相乘的矩阵

关键字参数

  • beta(数字,可选的) -input ( ) 的乘数

  • alpha(数字,可选的) - ( ) 的乘数

  • out(Tensor,可选的) -输出张量。

batch1batch2 中的矩阵执行批次 matrix-matrix 乘积。 input 添加到最终结果中。

batch1batch2 必须是 3-D 张量,每个张量都包含相同数量的矩阵。

如果batch1 张量,batch2 张量,那么input必须是可广播的 张量并且out将是 张量。 alphabeta 的含义与 torch.addbmm() 中使用的比例因子相同。

如果beta为0,则input将被忽略,其中的naninf不会被传播。

对于 FloatTensorDoubleTensor 类型的输入,参数 betaalpha 必须是实数,否则它们应该是整数。

该运算符支持 TensorFloat32。

例子:

>>> M = torch.randn(10, 3, 5)
>>> batch1 = torch.randn(10, 3, 4)
>>> batch2 = torch.randn(10, 4, 5)
>>> torch.baddbmm(M, batch1, batch2).size()
torch.Size([10, 3, 5])

相关用法


注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.baddbmm。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。