本文简要介绍python语言中 torchrec.modules.deepfm.DeepFM.forward 的用法。
- 用法:- forward(embeddings: List[torch.Tensor]) → torch.Tensor
- embeddings(List[torch.Tensor]) - - 所有嵌入的列表(例如,密集、common_sparse、specialized_sparse、embedding_features、raw_embedding_features),形状如下: - (batch_size, num_embeddings, embedding_dim)- 为了便于操作,具有相同嵌入维度的嵌入可以选择堆叠成单个张量。例如,当我们有 1 个维度 = 32 的训练嵌入、5 个维度 = 64 的原生嵌入和 3 个维度 = 16 的密集特征时,我们可以将嵌入列表准备为以下列表: - tensor(B, 1, 32) (trained_embedding with num_embeddings=1, embedding_dim=32) tensor(B, 5, 64) (native_embedding with num_embeddings=5, embedding_dim=64) tensor(B, 3, 16) (dense_features with num_embeddings=3, embedding_dim=32)- 注意 - 所有输入张量的 - batch_size必须相同。
- dense_module的输出,以扁平化和连接的- embeddings作为输入。
- torch.Tensor 
参数:
返回:
返回类型:
相关用法
- Python PyTorch DeepFM用法及代码示例
- Python PyTorch DeQuantize用法及代码示例
- Python PyTorch DenseArch用法及代码示例
- Python PyTorch Decompressor用法及代码示例
- Python PyTorch Demultiplexer用法及代码示例
- Python PyTorch DistributedModelParallel用法及代码示例
- Python PyTorch DistributedDataParallel用法及代码示例
- Python PyTorch DistributedDataParallel.register_comm_hook用法及代码示例
- Python PyTorch DataFrameMaker用法及代码示例
- Python PyTorch DLRM用法及代码示例
- Python PyTorch DistributedSampler用法及代码示例
- Python PyTorch DistributedDataParallel.join用法及代码示例
- Python PyTorch Dropout用法及代码示例
- Python PyTorch DistributedModelParallel.named_parameters用法及代码示例
- Python PyTorch Dropout3d用法及代码示例
- Python PyTorch DataParallel用法及代码示例
- Python PyTorch DistributedModelParallel.state_dict用法及代码示例
- Python PyTorch DistributedDataParallel.no_sync用法及代码示例
- Python PyTorch Dropout2d用法及代码示例
- Python PyTorch DistributedModelParallel.named_buffers用法及代码示例
- Python PyTorch Dirichlet用法及代码示例
- Python PyTorch DistributedOptimizer用法及代码示例
- Python PyTorch DatasetFolder.find_classes用法及代码示例
- Python PyTorch frexp用法及代码示例
- Python PyTorch jvp用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torchrec.modules.deepfm.DeepFM.forward。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。
