本文簡要介紹python語言中 torchrec.modules.crossnet.LowRankMixtureCrossNet
的用法。
用法:
class torchrec.modules.crossnet.LowRankMixtureCrossNet(in_features: int, num_layers: int, num_experts: int = 1, low_rank: int = 1, activation: typing.Union[torch.nn.modules.module.Module, typing.Callable[[torch.Tensor], torch.Tensor]] = <built-in method relu of type object>)
in_features(int) -輸入的維度。
num_layers(int) -模塊中的層數。
low_rank(int) -交叉矩陣的秩設置(默認 = 0)。值必須始終 >= 0
activation(聯盟[火炬.nn.模塊,可調用[[torch.Tensor],torch.Tensor]]) - 非線性激活函數,用於定義專家。默認為 relu。
基礎:
torch.nn.modules.module.Module
Low Rank Mixture Cross Net 是來自 paper 的 DCN V2 實現:
LowRankMixtureCrossNet
將每層的可學習交叉參數定義為低秩矩陣 以及專家的混合。與LowRankCrossNet
相比,該模塊利用了 專家,而不是依賴一位專家來學習特征組合;每個學習特征在不同子空間中相互作用,並使用取決於輸入 的門控機製自適應地組合學習到的交叉。在每一層 l 上,張量轉換為:
每個 定義為:
其中 、 和 是低秩矩陣, 表示逐元素乘法, 表示矩陣乘法, 是非線性激活函數。
num_expert 為 1 時,將跳過門評估和 MOE 以節省計算。
例子:
batch_size = 3 num_layers = 2 in_features = 10 input = torch.randn(batch_size, in_features) dcn = LowRankCrossNet(num_layers=num_layers, num_experts=5, low_rank=3) output = dcn(input)
參數:
相關用法
- Python PyTorch LowRankMultivariateNormal用法及代碼示例
- Python torchrec.modules.crossnet.LowRankCrossNet用法及代碼示例
- Python PyTorch LogSigmoid用法及代碼示例
- Python PyTorch LogNormal用法及代碼示例
- Python PyTorch LocalResponseNorm用法及代碼示例
- Python PyTorch LogSoftmax用法及代碼示例
- Python PyTorch LocalElasticAgent用法及代碼示例
- Python PyTorch LazyModuleMixin用法及代碼示例
- Python PyTorch LinearLR用法及代碼示例
- Python PyTorch LKJCholesky用法及代碼示例
- Python PyTorch L1Loss用法及代碼示例
- Python PyTorch LPPool2d用法及代碼示例
- Python PyTorch LeakyReLU用法及代碼示例
- Python PyTorch LayerNorm用法及代碼示例
- Python PyTorch LineReader用法及代碼示例
- Python PyTorch LambdaLR用法及代碼示例
- Python PyTorch LSTM用法及代碼示例
- Python PyTorch Linear用法及代碼示例
- Python PyTorch LSTMCell用法及代碼示例
- Python PyTorch LPPool1d用法及代碼示例
- Python PyTorch Laplace用法及代碼示例
- Python PyTorch LazyModuleExtensionMixin.apply用法及代碼示例
- Python PyTorch LinearReLU用法及代碼示例
- Python PyTorch frexp用法及代碼示例
- Python PyTorch jvp用法及代碼示例
注:本文由純淨天空篩選整理自pytorch.org大神的英文原創作品 torchrec.modules.crossnet.LowRankMixtureCrossNet。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。