本文简要介绍python语言中 torch.nn.ConstantPad1d
的用法。
用法:
class torch.nn.ConstantPad1d(padding, value)
用一个常数值填充输入张量边界。
对于
N
维填充,请使用torch.nn.functional.pad()
。- 形状:
输入: 或 。
输出: 或 ,其中
例子:
>>> m = nn.ConstantPad1d(2, 3.5) >>> input = torch.randn(1, 2, 4) >>> input tensor([[[-1.0491, -0.7152, -0.0749, 0.8530], [-1.3287, 1.8966, 0.1466, -0.2771]]]) >>> m(input) tensor([[[ 3.5000, 3.5000, -1.0491, -0.7152, -0.0749, 0.8530, 3.5000, 3.5000], [ 3.5000, 3.5000, -1.3287, 1.8966, 0.1466, -0.2771, 3.5000, 3.5000]]]) >>> m = nn.ConstantPad1d(2, 3.5) >>> input = torch.randn(1, 2, 3) >>> input tensor([[[ 1.6616, 1.4523, -1.1255], [-3.6372, 0.1182, -1.8652]]]) >>> m(input) tensor([[[ 3.5000, 3.5000, 1.6616, 1.4523, -1.1255, 3.5000, 3.5000], [ 3.5000, 3.5000, -3.6372, 0.1182, -1.8652, 3.5000, 3.5000]]]) >>> # using different paddings for different sides >>> m = nn.ConstantPad1d((3, 1), 3.5) >>> m(input) tensor([[[ 3.5000, 3.5000, 3.5000, 1.6616, 1.4523, -1.1255, 3.5000], [ 3.5000, 3.5000, 3.5000, -3.6372, 0.1182, -1.8652, 3.5000]]])
相关用法
- Python PyTorch ConstantPad2d用法及代码示例
- Python PyTorch ConstantPad3d用法及代码示例
- Python PyTorch ConstantLR用法及代码示例
- Python PyTorch ConstraintRegistry.register用法及代码示例
- Python PyTorch ConvTranspose3d用法及代码示例
- Python PyTorch Conv1d用法及代码示例
- Python PyTorch ContinuousBernoulli用法及代码示例
- Python PyTorch ConvTranspose2d用法及代码示例
- Python PyTorch Concater用法及代码示例
- Python PyTorch Conv2d用法及代码示例
- Python PyTorch Conv3d用法及代码示例
- Python PyTorch Collator用法及代码示例
- Python PyTorch CosineAnnealingWarmRestarts.step用法及代码示例
- Python PyTorch CocoCaptions用法及代码示例
- Python PyTorch ComplexNorm用法及代码示例
- Python PyTorch Compose用法及代码示例
- Python PyTorch CosineSimilarity用法及代码示例
- Python PyTorch CSVParser用法及代码示例
- Python PyTorch CrossEntropyLoss用法及代码示例
- Python PyTorch ChannelShuffle用法及代码示例
- Python PyTorch CSVDictParser用法及代码示例
- Python PyTorch Cityscapes用法及代码示例
- Python PyTorch ChainedScheduler用法及代码示例
- Python PyTorch Cauchy用法及代码示例
- Python PyTorch CriteoIterDataPipe用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.nn.ConstantPad1d。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。