本文简要介绍python语言中 torchrec.modules.deepfm.DeepFM.forward
的用法。
用法:
forward(embeddings: List[torch.Tensor]) → torch.Tensor
embeddings(List[torch.Tensor]) -
所有嵌入的列表(例如,密集、common_sparse、specialized_sparse、embedding_features、raw_embedding_features),形状如下:
(batch_size, num_embeddings, embedding_dim)
为了便于操作,具有相同嵌入维度的嵌入可以选择堆叠成单个张量。例如,当我们有 1 个维度 = 32 的训练嵌入、5 个维度 = 64 的原生嵌入和 3 个维度 = 16 的密集特征时,我们可以将嵌入列表准备为以下列表:
tensor(B, 1, 32) (trained_embedding with num_embeddings=1, embedding_dim=32) tensor(B, 5, 64) (native_embedding with num_embeddings=5, embedding_dim=64) tensor(B, 3, 16) (dense_features with num_embeddings=3, embedding_dim=32)
注意
所有输入张量的
batch_size
必须相同。dense_module
的输出,以扁平化和连接的embeddings
作为输入。torch.Tensor
参数:
返回:
返回类型:
相关用法
- Python PyTorch DeepFM用法及代码示例
- Python PyTorch DeQuantize用法及代码示例
- Python PyTorch DenseArch用法及代码示例
- Python PyTorch Decompressor用法及代码示例
- Python PyTorch Demultiplexer用法及代码示例
- Python PyTorch DistributedModelParallel用法及代码示例
- Python PyTorch DistributedDataParallel用法及代码示例
- Python PyTorch DistributedDataParallel.register_comm_hook用法及代码示例
- Python PyTorch DataFrameMaker用法及代码示例
- Python PyTorch DLRM用法及代码示例
- Python PyTorch DistributedSampler用法及代码示例
- Python PyTorch DistributedDataParallel.join用法及代码示例
- Python PyTorch Dropout用法及代码示例
- Python PyTorch DistributedModelParallel.named_parameters用法及代码示例
- Python PyTorch Dropout3d用法及代码示例
- Python PyTorch DataParallel用法及代码示例
- Python PyTorch DistributedModelParallel.state_dict用法及代码示例
- Python PyTorch DistributedDataParallel.no_sync用法及代码示例
- Python PyTorch Dropout2d用法及代码示例
- Python PyTorch DistributedModelParallel.named_buffers用法及代码示例
- Python PyTorch Dirichlet用法及代码示例
- Python PyTorch DistributedOptimizer用法及代码示例
- Python PyTorch DatasetFolder.find_classes用法及代码示例
- Python PyTorch frexp用法及代码示例
- Python PyTorch jvp用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torchrec.modules.deepfm.DeepFM.forward。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。