本文簡要介紹python語言中 torch.nn.ConstantPad1d
的用法。
用法:
class torch.nn.ConstantPad1d(padding, value)
用一個常數值填充輸入張量邊界。
對於
N
維填充,請使用torch.nn.functional.pad()
。- 形狀:
輸入: 或 。
輸出: 或 ,其中
例子:
>>> m = nn.ConstantPad1d(2, 3.5) >>> input = torch.randn(1, 2, 4) >>> input tensor([[[-1.0491, -0.7152, -0.0749, 0.8530], [-1.3287, 1.8966, 0.1466, -0.2771]]]) >>> m(input) tensor([[[ 3.5000, 3.5000, -1.0491, -0.7152, -0.0749, 0.8530, 3.5000, 3.5000], [ 3.5000, 3.5000, -1.3287, 1.8966, 0.1466, -0.2771, 3.5000, 3.5000]]]) >>> m = nn.ConstantPad1d(2, 3.5) >>> input = torch.randn(1, 2, 3) >>> input tensor([[[ 1.6616, 1.4523, -1.1255], [-3.6372, 0.1182, -1.8652]]]) >>> m(input) tensor([[[ 3.5000, 3.5000, 1.6616, 1.4523, -1.1255, 3.5000, 3.5000], [ 3.5000, 3.5000, -3.6372, 0.1182, -1.8652, 3.5000, 3.5000]]]) >>> # using different paddings for different sides >>> m = nn.ConstantPad1d((3, 1), 3.5) >>> m(input) tensor([[[ 3.5000, 3.5000, 3.5000, 1.6616, 1.4523, -1.1255, 3.5000], [ 3.5000, 3.5000, 3.5000, -3.6372, 0.1182, -1.8652, 3.5000]]])
相關用法
- Python PyTorch ConstantPad2d用法及代碼示例
- Python PyTorch ConstantPad3d用法及代碼示例
- Python PyTorch ConstantLR用法及代碼示例
- Python PyTorch ConstraintRegistry.register用法及代碼示例
- Python PyTorch ConvTranspose3d用法及代碼示例
- Python PyTorch Conv1d用法及代碼示例
- Python PyTorch ContinuousBernoulli用法及代碼示例
- Python PyTorch ConvTranspose2d用法及代碼示例
- Python PyTorch Concater用法及代碼示例
- Python PyTorch Conv2d用法及代碼示例
- Python PyTorch Conv3d用法及代碼示例
- Python PyTorch Collator用法及代碼示例
- Python PyTorch CosineAnnealingWarmRestarts.step用法及代碼示例
- Python PyTorch CocoCaptions用法及代碼示例
- Python PyTorch ComplexNorm用法及代碼示例
- Python PyTorch Compose用法及代碼示例
- Python PyTorch CosineSimilarity用法及代碼示例
- Python PyTorch CSVParser用法及代碼示例
- Python PyTorch CrossEntropyLoss用法及代碼示例
- Python PyTorch ChannelShuffle用法及代碼示例
- Python PyTorch CSVDictParser用法及代碼示例
- Python PyTorch Cityscapes用法及代碼示例
- Python PyTorch ChainedScheduler用法及代碼示例
- Python PyTorch Cauchy用法及代碼示例
- Python PyTorch CriteoIterDataPipe用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.nn.ConstantPad1d。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。