本文簡要介紹python語言中 torchtext.nn.MultiheadAttentionContainer.__init__
的用法。
用法:
__init__(nhead, in_proj_container, attention_layer, out_proj, batch_first=False)
nhead-多頭注意力模型中的頭數
in_proj_container-multi-head in-projection 線性層(又名 nn.Linear)的容器。
attention_layer-自定義關注層。從 MHA 容器發送到注意力層的輸入形狀為
(…, L, N * H, E / H)
(用於查詢)和(…, S, N * H, E / H)
(用於鍵/值),而注意力層的輸出形狀預計為(…, L, N * H, E / H)
。如果用戶希望整個MultiheadAttentionContainer具有廣播函數,則attention_layer需要支持廣播。out_proj-multi-head out-projection 層(又名 nn.Linear)。
batch_first-如果
True
,則輸入和輸出張量作為(…, N, L, E)
提供。默認值:False
一個multi-head注意力容器
- 例子::
>>> import torch >>> from torchtext.nn import MultiheadAttentionContainer, InProjContainer, ScaledDotProduct >>> embed_dim, num_heads, bsz = 10, 5, 64 >>> in_proj_container = InProjContainer(torch.nn.Linear(embed_dim, embed_dim), torch.nn.Linear(embed_dim, embed_dim), torch.nn.Linear(embed_dim, embed_dim)) >>> MHA = MultiheadAttentionContainer(num_heads, in_proj_container, ScaledDotProduct(), torch.nn.Linear(embed_dim, embed_dim)) >>> query = torch.rand((21, bsz, embed_dim)) >>> key = value = torch.rand((16, bsz, embed_dim)) >>> attn_output, attn_weights = MHA(query, key, value) >>> print(attn_output.shape) >>> torch.Size([21, 64, 10])
參數:
相關用法
- Python PyTorch MultiheadAttention用法及代碼示例
- Python PyTorch MultiStepLR用法及代碼示例
- Python PyTorch MultiLabelMarginLoss用法及代碼示例
- Python PyTorch MultiplicativeLR用法及代碼示例
- Python PyTorch MultivariateNormal用法及代碼示例
- Python PyTorch MultiScaleRoIAlign用法及代碼示例
- Python PyTorch MultiMarginLoss用法及代碼示例
- Python PyTorch Multiplexer用法及代碼示例
- Python PyTorch Multinomial用法及代碼示例
- Python PyTorch MuLawEncoding用法及代碼示例
- Python PyTorch MuLawDecoding用法及代碼示例
- Python PyTorch MaxUnpool3d用法及代碼示例
- Python PyTorch Module.buffers用法及代碼示例
- Python PyTorch Module.register_full_backward_hook用法及代碼示例
- Python PyTorch Module.named_modules用法及代碼示例
- Python PyTorch Module.parameters用法及代碼示例
- Python PyTorch MaxPool1d用法及代碼示例
- Python PyTorch Module.register_forward_hook用法及代碼示例
- Python PyTorch MetaInferGroupedPooledEmbeddingsLookup.state_dict用法及代碼示例
- Python PyTorch Module.named_parameters用法及代碼示例
- Python PyTorch MetaInferGroupedEmbeddingsLookup.named_buffers用法及代碼示例
- Python PyTorch ModuleList用法及代碼示例
- Python PyTorch MixtureSameFamily用法及代碼示例
- Python PyTorch MpSerialExecutor用法及代碼示例
- Python PyTorch MaxUnpool1d用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torchtext.nn.MultiheadAttentionContainer.__init__。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。