本文簡要介紹python語言中 torch.nn.RNN
的用法。
用法:
class torch.nn.RNN(*args, **kwargs)
input_size-輸入
x
中的預期特征數hidden_size-隱藏狀態的特征數
h
num_layers-循環層數。例如,設置
num_layers=2
意味著將兩個 RNN 堆疊在一起形成一個stacked RNN
,第二個 RNN 接收第一個 RNN 的輸出並計算最終結果。默認值:1nonlinearity-使用的非線性。可以是
'tanh'
或'relu'
。默認值:'tanh'
bias-如果
False
,則該層不使用偏置權重b_ih
和b_hh
。默認值:True
batch_first-如果
True
,則輸入和輸出張量提供為(batch, seq, feature)
而不是(seq, batch, feature)
。請注意,這不適用於隱藏或單元狀態。有關詳細信息,請參閱下麵的輸入/輸出部分。默認值:False
dropout-如果非零,則在除最後一層之外的每個 RNN 層的輸出上引入
Dropout
層,丟棄概率等於dropout
。默認值:0bidirectional-如果
True
,則成為雙向 RNN。默認值:False
~RNN.weight_ih_l[k]-k-th 層的可學習 input-hidden 權重,形狀為
(hidden_size, input_size)
的k = 0
。否則,形狀為(hidden_size, num_directions * hidden_size)
~RNN.weight_hh_l[k]-k-th 層的可學習 hidden-hidden 權重,形狀為
(hidden_size, hidden_size)
~RNN.bias_ih_l[k]-k-th 層的可學習 input-hidden 偏差,形狀為
(hidden_size)
~RNN.bias_hh_l[k]-k-th 層的可學習 hidden-hidden 偏差,形狀為
(hidden_size)
將具有 或 非線性的多層 Elman RNN 應用於輸入序列。
對於輸入序列中的每個元素,每一層計算以下函數:
其中
t
的隱藏狀態, 是時間t
的輸入, 是時間t-1
的前一層的隱藏狀態或時間的初始隱藏狀態0
。如果nonlinearity
是'relu'
,則使用 代替 。 是時間- 輸入:輸入,h_0
input: 形狀張量
當batch_first=False
或者 當batch_first=True
包含輸入序列的特征。輸入也可以是打包的可變長度序列。看torch.nn.utils.rnn.pack_padded_sequence()
或者torch.nn.utils.rnn.pack_sequence詳情。h_0: 形狀張量
包含批次中每個元素的初始隱藏狀態。如果未提供,則默認為零。
其中:
- 輸出:輸出,h_n
output: 形狀張量
當batch_first=False
或者 當batch_first=True
包含輸出特征(h_t)
從RNN的最後一層,對於每個t
.如果一個torch.nn.utils.rnn.PackedSequence
已作為輸入給出,輸出也將是一個打包序列。h_n: 形狀張量
包含批次中每個元素的最終隱藏狀態。
注意
所有的權重和偏差都是從 初始化的,其中
注意
對於雙向 RNN,前向和後向分別是方向 0 和 1。
batch_first=False
:output.view(seq_len, batch, num_directions, hidden_size)
時拆分輸出層的示例。警告
在某些版本的 cuDNN 和 CUDA 上,RNN 函數存在已知的不確定性問題。您可以通過設置以下環境變量來強製執行確定性行為:
在 CUDA 10.1 上,設置環境變量
CUDA_LAUNCH_BLOCKING=1
。這可能會影響性能。在 CUDA 10.2 或更高版本上,設置環境變量(注意前導冒號)
CUBLAS_WORKSPACE_CONFIG=:16:8
或CUBLAS_WORKSPACE_CONFIG=:4096:2
。有關詳細信息,請參閱cuDNN 8 Release Notes。
- 孤兒
注意
如果滿足以下條件:1) cudnn 已啟用,2) 輸入數據在 GPU 上 3) 輸入數據具有 dtype
torch.float16
4) 使用 V100 GPU,5) 輸入數據不是PackedSequence
格式的持久化算法可以選擇以提高性能。例子:
>>> rnn = nn.RNN(10, 20, 2) >>> input = torch.randn(5, 3, 10) >>> h0 = torch.randn(2, 3, 20) >>> output, hn = rnn(input, h0)
參數:
變量:
相關用法
- Python PyTorch RNNTLoss用法及代碼示例
- Python PyTorch RNNCell用法及代碼示例
- Python PyTorch RRef.rpc_sync用法及代碼示例
- Python PyTorch RReLU用法及代碼示例
- Python PyTorch ReduceLROnPlateau用法及代碼示例
- Python PyTorch ReflectionPad1d用法及代碼示例
- Python PyTorch RRef.backward用法及代碼示例
- Python PyTorch RemoteModule用法及代碼示例
- Python PyTorch Rows2Columnar用法及代碼示例
- Python PyTorch RandomRecDataset用法及代碼示例
- Python PyTorch ReplicationPad1d用法及代碼示例
- Python PyTorch Resample用法及代碼示例
- Python PyTorch ReplicationPad3d用法及代碼示例
- Python PyTorch ReflectionPad2d用法及代碼示例
- Python PyTorch RandomApply用法及代碼示例
- Python PyTorch RRef.remote用法及代碼示例
- Python PyTorch RarArchiveLoader用法及代碼示例
- Python PyTorch RelaxedOneHotCategorical用法及代碼示例
- Python PyTorch RandomErasing用法及代碼示例
- Python PyTorch RendezvousHandler.shutdown用法及代碼示例
- Python PyTorch ReLU用法及代碼示例
- Python PyTorch ReLU6用法及代碼示例
- Python PyTorch ReplicationPad2d用法及代碼示例
- Python PyTorch ReflectionPad3d用法及代碼示例
- Python PyTorch RRef.rpc_async用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torch.nn.RNN。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。