本文簡要介紹python語言中 torchtext.nn.ScaledDotProduct.__init__
的用法。
用法:
__init__(dropout=0.0, batch_first=False)
dropout(float) -降低注意力權重的概率。
batch_first-如果
True
,則輸入和輸出張量作為(batch, seq, feature)
提供。默認值:False
處理投影查詢和鍵值對以應用縮放的點積注意力。
- 例子::
>>> import torch, torchtext >>> SDP = torchtext.nn.ScaledDotProduct(dropout=0.1) >>> q = torch.randn(21, 256, 3) >>> k = v = torch.randn(21, 256, 3) >>> attn_output, attn_weights = SDP(q, k, v) >>> print(attn_output.shape, attn_weights.shape) torch.Size([21, 256, 3]) torch.Size([256, 21, 21])
參數:
相關用法
- Python PyTorch ScriptModule.state_dict用法及代碼示例
- Python PyTorch ScriptModule.register_full_backward_hook用法及代碼示例
- Python PyTorch ScriptModule.parameters用法及代碼示例
- Python PyTorch ScriptModule.register_forward_hook用法及代碼示例
- Python PyTorch ScriptModule.modules用法及代碼示例
- Python PyTorch ScriptModule.register_forward_pre_hook用法及代碼示例
- Python PyTorch ScriptModule.named_parameters用法及代碼示例
- Python PyTorch ScriptModule.to用法及代碼示例
- Python PyTorch ScriptModule.named_buffers用法及代碼示例
- Python PyTorch ScriptModule.buffers用法及代碼示例
- Python PyTorch ScriptModule.named_modules用法及代碼示例
- Python PyTorch ScriptModule.named_children用法及代碼示例
- Python PyTorch ScriptModule.register_buffer用法及代碼示例
- Python PyTorch ScriptModule.apply用法及代碼示例
- Python PyTorch Sigmoid用法及代碼示例
- Python PyTorch ShardedEmbeddingBagCollection.named_parameters用法及代碼示例
- Python PyTorch SummaryWriter.add_histogram用法及代碼示例
- Python PyTorch Softmin用法及代碼示例
- Python PyTorch SummaryWriter.add_pr_curve用法及代碼示例
- Python PyTorch Softmax2d用法及代碼示例
- Python PyTorch ShardedEmbeddingBag.named_parameters用法及代碼示例
- Python PyTorch SummaryWriter.add_custom_scalars用法及代碼示例
- Python PyTorch ShardedEmbeddingBag.state_dict用法及代碼示例
- Python PyTorch SummaryWriter.add_image用法及代碼示例
- Python PyTorch Store.num_keys用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torchtext.nn.ScaledDotProduct.__init__。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。