本文简要介绍python语言中 torch.distributions.transforms.Transform
的用法。
用法:
class torch.distributions.transforms.Transform(cache_size=0)
cache_size(int) -缓存大小。如果为零,则不进行缓存。如果为 1,则缓存最新的单个值。仅支持 0 和 1。
~Transform.domain(
Constraint
) -表示此转换的有效输入的约束。~Transform.codomain(
Constraint
) -表示此变换的有效输出的约束,这些输出是逆变换的输入。~Transform.bijective(bool) -这种变换是否是双射的。对于域中的每个
x
和共域中的每个y
,变换t
是双射的,如果t.inv(t(x)) == x
和t(t.inv(y)) == y
。非双射变换至少应保持较弱的伪逆属性t(t.inv(t(x)) == t(x)
和t.inv(t(t.inv(y))) == t.inv(y)
。~Transform.sign(int或者Tensor) -对于双射单变量变换,这应该是 +1 或 -1,具体取决于变换是单调递增还是递减。
具有可计算 log det jacobians 的可逆变换的抽象类。它们主要用于
torch.distributions.TransformedDistribution
。缓存对于逆变换成本高或数值不稳定的变换很有用。请注意,必须注意 memory 值,因为 autograd 图可能会反转。例如,虽然以下内容在有或没有缓存的情况下都有效:
y = t(x) t.log_abs_det_jacobian(x, y).backward() # x will receive gradients.
但是,由于依赖反转,缓存时会出现以下错误:
y = t(x) z = t.inv(y) grad(z.sum(), [y]) # error because z is x
派生类应实现
_call()
或_inverse()
之一或两者。设置bijective=True
的派生类也应该实现log_abs_det_jacobian()
。
参数:
变量:
相关用法
- Python PyTorch TransformerEncoder用法及代码示例
- Python PyTorch TransformedDistribution用法及代码示例
- Python PyTorch Transformer用法及代码示例
- Python PyTorch TransformerDecoderLayer用法及代码示例
- Python PyTorch TransformerDecoder用法及代码示例
- Python PyTorch Transformer.forward用法及代码示例
- Python PyTorch TransformerEncoderLayer用法及代码示例
- Python PyTorch TripletMarginLoss用法及代码示例
- Python PyTorch TripletMarginWithDistanceLoss用法及代码示例
- Python PyTorch Tensor.unflatten用法及代码示例
- Python PyTorch Tensor.register_hook用法及代码示例
- Python PyTorch TarArchiveLoader用法及代码示例
- Python PyTorch Tensor.storage_offset用法及代码示例
- Python PyTorch Tensor.to用法及代码示例
- Python PyTorch Tensor.sparse_mask用法及代码示例
- Python PyTorch Timer用法及代码示例
- Python PyTorch TimeMasking用法及代码示例
- Python PyTorch Tacotron2TTSBundle.get_text_processor用法及代码示例
- Python PyTorch Tensor.is_leaf用法及代码示例
- Python PyTorch Tensor.imag用法及代码示例
- Python PyTorch Tensor.unfold用法及代码示例
- Python PyTorch TenCrop用法及代码示例
- Python PyTorch Tensor.real用法及代码示例
- Python PyTorch TwRwSparseFeaturesDist用法及代码示例
- Python PyTorch Tensor.refine_names用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.distributions.transforms.Transform。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。