本文简要介绍python语言中 torch.nn.TransformerDecoderLayer
的用法。
用法:
class torch.nn.TransformerDecoderLayer(d_model, nhead, dim_feedforward=2048, dropout=0.1, activation=<function relu>, layer_norm_eps=1e-05, batch_first=False, norm_first=False, device=None, dtype=None)
d_model-输入中预期特征的数量(必需)。
nhead-多头注意力模型中的头数(必需)。
dim_feedforward-前馈网络模型的维度(默认=2048)。
dropout-辍学值(默认= 0.1)。
activation-中间层的激活函数,可以是字符串(“relu”或“gelu”)或一元可调用函数。默认值:relu
layer_norm_eps-层标准化组件中的 eps 值(默认值=1e-5)。
batch_first-如果
True
,则输入和输出张量提供为 (batch, seq, feature)。默认值:False
。norm_first-如果
True
,则层规范分别在自注意力、多头注意力和前馈操作之前完成。不然后面就完事了。默认值:False
(之后)。
TransformerDecoderLayer由self-attn、multi-head-attn和前馈网络组成。该标准解码器层基于论文“Attention Is All You Need”。 Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N Gomez、Lukasz Kaiser 和 Illia Polosukhin。 2017年,你所需要的就是关注。 《神经信息处理系统进展》,第 6000-6010 页。用户在应用过程中可以进行修改或以不同的方式实现。
- 例子::
>>> decoder_layer = nn.TransformerDecoderLayer(d_model=512, nhead=8) >>> memory = torch.rand(10, 32, 512) >>> tgt = torch.rand(20, 32, 512) >>> out = decoder_layer(tgt, memory)
- 或者,当
batch_first
是True
时: >>> decoder_layer = nn.TransformerDecoderLayer(d_model=512, nhead=8, batch_first=True) >>> memory = torch.rand(32, 10, 512) >>> tgt = torch.rand(32, 20, 512) >>> out = decoder_layer(tgt, memory)
参数:
相关用法
- Python PyTorch TransformerDecoder用法及代码示例
- Python PyTorch TransformerEncoder用法及代码示例
- Python PyTorch Transformer用法及代码示例
- Python PyTorch Transformer.forward用法及代码示例
- Python PyTorch TransformerEncoderLayer用法及代码示例
- Python PyTorch TransformedDistribution用法及代码示例
- Python PyTorch Transform用法及代码示例
- Python PyTorch TripletMarginLoss用法及代码示例
- Python PyTorch TripletMarginWithDistanceLoss用法及代码示例
- Python PyTorch Tensor.unflatten用法及代码示例
- Python PyTorch Tensor.register_hook用法及代码示例
- Python PyTorch TarArchiveLoader用法及代码示例
- Python PyTorch Tensor.storage_offset用法及代码示例
- Python PyTorch Tensor.to用法及代码示例
- Python PyTorch Tensor.sparse_mask用法及代码示例
- Python PyTorch Timer用法及代码示例
- Python PyTorch TimeMasking用法及代码示例
- Python PyTorch Tacotron2TTSBundle.get_text_processor用法及代码示例
- Python PyTorch Tensor.is_leaf用法及代码示例
- Python PyTorch Tensor.imag用法及代码示例
- Python PyTorch Tensor.unfold用法及代码示例
- Python PyTorch TenCrop用法及代码示例
- Python PyTorch Tensor.real用法及代码示例
- Python PyTorch TwRwSparseFeaturesDist用法及代码示例
- Python PyTorch Tensor.refine_names用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.nn.TransformerDecoderLayer。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。