本文簡要介紹python語言中 torch.nn.GRU
的用法。
用法:
class torch.nn.GRU(*args, **kwargs)
input_size-輸入
x
中的預期特征數hidden_size-隱藏狀態的特征數
h
num_layers-循環層數。例如,設置
num_layers=2
意味著將兩個 GRU 堆疊在一起形成一個stacked GRU
,第二個 GRU 接收第一個 GRU 的輸出並計算最終結果。默認值:1bias-如果
False
,則該層不使用偏置權重b_ih
和b_hh
。默認值:True
batch_first-如果
True
,則輸入和輸出張量提供為(batch, seq, feature)
而不是(seq, batch, feature)
。請注意,這不適用於隱藏或單元狀態。有關詳細信息,請參閱下麵的輸入/輸出部分。默認值:False
dropout-如果非零,則在除最後一層之外的每個 GRU 層的輸出上引入
Dropout
層,丟棄概率等於dropout
。默認值:0bidirectional-如果
True
,則成為雙向 GRU。默認值:False
~GRU.weight_ih_l[k]-
(3*hidden_size, input_size)
用於k = 0
。否則,形狀為(3*hidden_size, num_directions * hidden_size)
層 (W_ir|W_iz|W_in) 的可學習 input-hidden 權重,形狀為~GRU.weight_hh_l[k]-
(3*hidden_size, hidden_size)
層 (W_hr|W_hz|W_hn) 的可學習 hidden-hidden 權重,形狀為~GRU.bias_ih_l[k]-
(3*hidden_size)
層 (b_ir|b_iz|b_in) 的可學習 input-hidden 偏差,形狀為~GRU.bias_hh_l[k]-
(3*hidden_size)
層 (b_hr|b_hz|b_hn) 的可學習 hidden-hidden 偏差,形狀為
將多層門控循環單元 (GRU) RNN 應用於輸入序列。
對於輸入序列中的每個元素,每一層計算以下函數:
其中
t
的隱藏狀態, 是時間t
的輸入; 是層在時間t-1
的隱藏狀態或在時間0
的初始隱藏狀態,而 、 、 分別是重置、更新和新門。 是 sigmoid 函數, 是 Hadamard 積。 是時間在多層 GRU 中,第
dropout
。 層 ( ) 的輸入 是前一層的隱藏狀態 乘以 dropout 其中每個 是一個伯努利隨機變量這是 概率為- 輸入:輸入,h_0
input: 形狀張量
當batch_first=False
或者 當batch_first=True
包含輸入序列的特征。輸入也可以是打包的可變長度序列。看torch.nn.utils.rnn.pack_padded_sequence()
或者torch.nn.utils.rnn.pack_sequence詳情。h_0: 形狀張量
包含批次中每個元素的初始隱藏狀態。如果未提供,則默認為零。
其中:
- 輸出:輸出,h_n
output: 形狀張量
當batch_first=False
或者 當batch_first=True
包含輸出特征(h_t)
從 GRU 的最後一層,對於每個t
.如果一個torch.nn.utils.rnn.PackedSequence
已作為輸入給出,輸出也將是一個打包序列。h_n: 形狀張量
包含批次中每個元素的最終隱藏狀態。
注意
所有的權重和偏差都是從 初始化的,其中
注意
對於雙向 GRU,向前和向後分別是方向 0 和 1。
batch_first=False
:output.view(seq_len, batch, num_directions, hidden_size)
時拆分輸出層的示例。- 孤兒
注意
如果滿足以下條件:1) cudnn 已啟用,2) 輸入數據在 GPU 上 3) 輸入數據具有 dtype
torch.float16
4) 使用 V100 GPU,5) 輸入數據不是PackedSequence
格式的持久化算法可以選擇以提高性能。例子:
>>> rnn = nn.GRU(10, 20, 2) >>> input = torch.randn(5, 3, 10) >>> h0 = torch.randn(2, 3, 20) >>> output, hn = rnn(input, h0)
參數:
變量:
相關用法
- Python PyTorch GRUCell用法及代碼示例
- Python PyTorch Graph.eliminate_dead_code用法及代碼示例
- Python PyTorch Generator.set_state用法及代碼示例
- Python PyTorch GroupedPositionWeightedModule.named_parameters用法及代碼示例
- Python PyTorch Graph.inserting_before用法及代碼示例
- Python PyTorch GradScaler.unscale_用法及代碼示例
- Python PyTorch Generator.seed用法及代碼示例
- Python PyTorch GroupedPooledEmbeddingsLookup.named_buffers用法及代碼示例
- Python PyTorch GLU用法及代碼示例
- Python PyTorch Graph.inserting_after用法及代碼示例
- Python PyTorch GroupNorm用法及代碼示例
- Python PyTorch GDriveReader用法及代碼示例
- Python PyTorch Gumbel用法及代碼示例
- Python PyTorch Graph用法及代碼示例
- Python PyTorch Generator.get_state用法及代碼示例
- Python PyTorch GELU用法及代碼示例
- Python PyTorch Generator.manual_seed用法及代碼示例
- Python PyTorch Geometric用法及代碼示例
- Python PyTorch GroupedPositionWeightedModule.named_buffers用法及代碼示例
- Python PyTorch GroupedPooledEmbeddingsLookup.state_dict用法及代碼示例
- Python PyTorch GriffinLim用法及代碼示例
- Python PyTorch GroupedPooledEmbeddingsLookup.named_parameters用法及代碼示例
- Python PyTorch Graph.node_copy用法及代碼示例
- Python PyTorch GaussianNLLLoss用法及代碼示例
- Python PyTorch Generator用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.nn.GRU。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。