本文簡要介紹python語言中 torch.distributions.transforms.Transform
的用法。
用法:
class torch.distributions.transforms.Transform(cache_size=0)
cache_size(int) -緩存大小。如果為零,則不進行緩存。如果為 1,則緩存最新的單個值。僅支持 0 和 1。
~Transform.domain(
Constraint
) -表示此轉換的有效輸入的約束。~Transform.codomain(
Constraint
) -表示此變換的有效輸出的約束,這些輸出是逆變換的輸入。~Transform.bijective(bool) -這種變換是否是雙射的。對於域中的每個
x
和共域中的每個y
,變換t
是雙射的,如果t.inv(t(x)) == x
和t(t.inv(y)) == y
。非雙射變換至少應保持較弱的偽逆屬性t(t.inv(t(x)) == t(x)
和t.inv(t(t.inv(y))) == t.inv(y)
。~Transform.sign(int或者Tensor) -對於雙射單變量變換,這應該是 +1 或 -1,具體取決於變換是單調遞增還是遞減。
具有可計算 log det jacobians 的可逆變換的抽象類。它們主要用於
torch.distributions.TransformedDistribution
。緩存對於逆變換成本高或數值不穩定的變換很有用。請注意,必須注意 memory 值,因為 autograd 圖可能會反轉。例如,雖然以下內容在有或沒有緩存的情況下都有效:
y = t(x) t.log_abs_det_jacobian(x, y).backward() # x will receive gradients.
但是,由於依賴反轉,緩存時會出現以下錯誤:
y = t(x) z = t.inv(y) grad(z.sum(), [y]) # error because z is x
派生類應實現
_call()
或_inverse()
之一或兩者。設置bijective=True
的派生類也應該實現log_abs_det_jacobian()
。
參數:
變量:
相關用法
- Python PyTorch TransformerEncoder用法及代碼示例
- Python PyTorch TransformedDistribution用法及代碼示例
- Python PyTorch Transformer用法及代碼示例
- Python PyTorch TransformerDecoderLayer用法及代碼示例
- Python PyTorch TransformerDecoder用法及代碼示例
- Python PyTorch Transformer.forward用法及代碼示例
- Python PyTorch TransformerEncoderLayer用法及代碼示例
- Python PyTorch TripletMarginLoss用法及代碼示例
- Python PyTorch TripletMarginWithDistanceLoss用法及代碼示例
- Python PyTorch Tensor.unflatten用法及代碼示例
- Python PyTorch Tensor.register_hook用法及代碼示例
- Python PyTorch TarArchiveLoader用法及代碼示例
- Python PyTorch Tensor.storage_offset用法及代碼示例
- Python PyTorch Tensor.to用法及代碼示例
- Python PyTorch Tensor.sparse_mask用法及代碼示例
- Python PyTorch Timer用法及代碼示例
- Python PyTorch TimeMasking用法及代碼示例
- Python PyTorch Tacotron2TTSBundle.get_text_processor用法及代碼示例
- Python PyTorch Tensor.is_leaf用法及代碼示例
- Python PyTorch Tensor.imag用法及代碼示例
- Python PyTorch Tensor.unfold用法及代碼示例
- Python PyTorch TenCrop用法及代碼示例
- Python PyTorch Tensor.real用法及代碼示例
- Python PyTorch TwRwSparseFeaturesDist用法及代碼示例
- Python PyTorch Tensor.refine_names用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.distributions.transforms.Transform。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。