本文簡要介紹python語言中 torch.nn.RNN 的用法。
用法:
class torch.nn.RNN(*args, **kwargs)input_size-輸入
x中的預期特征數hidden_size-隱藏狀態的特征數
hnum_layers-循環層數。例如,設置
num_layers=2意味著將兩個 RNN 堆疊在一起形成一個stacked RNN,第二個 RNN 接收第一個 RNN 的輸出並計算最終結果。默認值:1nonlinearity-使用的非線性。可以是
'tanh'或'relu'。默認值:'tanh'bias-如果
False,則該層不使用偏置權重b_ih和b_hh。默認值:Truebatch_first-如果
True,則輸入和輸出張量提供為(batch, seq, feature)而不是(seq, batch, feature)。請注意,這不適用於隱藏或單元狀態。有關詳細信息,請參閱下麵的輸入/輸出部分。默認值:Falsedropout-如果非零,則在除最後一層之外的每個 RNN 層的輸出上引入
Dropout層,丟棄概率等於dropout。默認值:0bidirectional-如果
True,則成為雙向 RNN。默認值:False
~RNN.weight_ih_l[k]-k-th 層的可學習 input-hidden 權重,形狀為
(hidden_size, input_size)的k = 0。否則,形狀為(hidden_size, num_directions * hidden_size)~RNN.weight_hh_l[k]-k-th 層的可學習 hidden-hidden 權重,形狀為
(hidden_size, hidden_size)~RNN.bias_ih_l[k]-k-th 層的可學習 input-hidden 偏差,形狀為
(hidden_size)~RNN.bias_hh_l[k]-k-th 層的可學習 hidden-hidden 偏差,形狀為
(hidden_size)
將具有 或 非線性的多層 Elman RNN 應用於輸入序列。
對於輸入序列中的每個元素,每一層計算以下函數:
其中是時間
t的隱藏狀態,是時間t的輸入,是時間t-1的前一層的隱藏狀態或時間的初始隱藏狀態0。如果nonlinearity是'relu',則使用 代替 。- 輸入:輸入,h_0
input: 形狀張量當
batch_first=False或者當batch_first=True包含輸入序列的特征。輸入也可以是打包的可變長度序列。看torch.nn.utils.rnn.pack_padded_sequence()或者torch.nn.utils.rnn.pack_sequence詳情。h_0: 形狀張量包含批次中每個元素的初始隱藏狀態。如果未提供,則默認為零。
其中:
- 輸出:輸出,h_n
output: 形狀張量當
batch_first=False或者當batch_first=True包含輸出特征(h_t)從RNN的最後一層,對於每個t.如果一個torch.nn.utils.rnn.PackedSequence已作為輸入給出,輸出也將是一個打包序列。h_n: 形狀張量包含批次中每個元素的最終隱藏狀態。
注意
所有的權重和偏差都是從 初始化的,其中
注意
對於雙向 RNN,前向和後向分別是方向 0 和 1。
batch_first=False:output.view(seq_len, batch, num_directions, hidden_size)時拆分輸出層的示例。警告
在某些版本的 cuDNN 和 CUDA 上,RNN 函數存在已知的不確定性問題。您可以通過設置以下環境變量來強製執行確定性行為:
在 CUDA 10.1 上,設置環境變量
CUDA_LAUNCH_BLOCKING=1。這可能會影響性能。在 CUDA 10.2 或更高版本上,設置環境變量(注意前導冒號)
CUBLAS_WORKSPACE_CONFIG=:16:8或CUBLAS_WORKSPACE_CONFIG=:4096:2。有關詳細信息,請參閱cuDNN 8 Release Notes。
- 孤兒
注意
如果滿足以下條件:1) cudnn 已啟用,2) 輸入數據在 GPU 上 3) 輸入數據具有 dtype
torch.float164) 使用 V100 GPU,5) 輸入數據不是PackedSequence格式的持久化算法可以選擇以提高性能。例子:
>>> rnn = nn.RNN(10, 20, 2) >>> input = torch.randn(5, 3, 10) >>> h0 = torch.randn(2, 3, 20) >>> output, hn = rnn(input, h0)
參數:
變量:
相關用法
- Python PyTorch RNNTLoss用法及代碼示例
- Python PyTorch RNNCell用法及代碼示例
- Python PyTorch RRef.rpc_sync用法及代碼示例
- Python PyTorch RReLU用法及代碼示例
- Python PyTorch ReduceLROnPlateau用法及代碼示例
- Python PyTorch ReflectionPad1d用法及代碼示例
- Python PyTorch RRef.backward用法及代碼示例
- Python PyTorch RemoteModule用法及代碼示例
- Python PyTorch Rows2Columnar用法及代碼示例
- Python PyTorch RandomRecDataset用法及代碼示例
- Python PyTorch ReplicationPad1d用法及代碼示例
- Python PyTorch Resample用法及代碼示例
- Python PyTorch ReplicationPad3d用法及代碼示例
- Python PyTorch ReflectionPad2d用法及代碼示例
- Python PyTorch RandomApply用法及代碼示例
- Python PyTorch RRef.remote用法及代碼示例
- Python PyTorch RarArchiveLoader用法及代碼示例
- Python PyTorch RelaxedOneHotCategorical用法及代碼示例
- Python PyTorch RandomErasing用法及代碼示例
- Python PyTorch RendezvousHandler.shutdown用法及代碼示例
- Python PyTorch ReLU用法及代碼示例
- Python PyTorch ReLU6用法及代碼示例
- Python PyTorch ReplicationPad2d用法及代碼示例
- Python PyTorch ReflectionPad3d用法及代碼示例
- Python PyTorch RRef.rpc_async用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.nn.RNN。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。
