將稀疏表示轉換為密集張量。
用法
tf.raw_ops.SparseToDense(
sparse_indices, output_shape, sparse_values, default_value,
validate_indices=True, name=None
)
參數
-
sparse_indices
一個Tensor
。必須是以下類型之一:int32
,int64
。 0-D、1-D 或 2-D。sparse_indices[i]
包含將放置sparse_values[i]
的完整索引。 -
output_shape
一個Tensor
。必須與sparse_indices
具有相同的類型。一維。密集輸出張量的形狀。 -
sparse_values
一個Tensor
。一維。與sparse_indices
的每一行對應的值,或用於所有稀疏索引的標量值。 -
default_value
一個Tensor
。必須與sparse_values
具有相同的類型。為sparse_indices
中未指定的索引設置的標量值。 -
validate_indices
可選的bool
。默認為True
。如果為真,則檢查索引以確保它們按字典順序排序並且沒有重複。 -
name
操作的名稱(可選)。
返回
-
一個
Tensor
。具有與sparse_values
相同的類型。
構建一個形狀為 output_shape
的數組 dense
,使得
# If sparse_indices is scalar
dense[i] = (i == sparse_indices ? sparse_values:default_value)
# If sparse_indices is a vector, then for each i
dense[sparse_indices[i]] = sparse_values[i]
# If sparse_indices is an n by d matrix, then for each i in [0, n)
dense[sparse_indices[i][0], ..., sparse_indices[i][d-1]] = sparse_values[i]
dense
中的所有其他值都設置為 default_value
。如果sparse_values
是標量,則所有稀疏索引都設置為此單個值。
索引應按字典順序排序,索引不得包含任何重複。如果validate_indices
為真,則在執行期間檢查這些屬性。
相關用法
- Python tf.raw_ops.SparseCrossV2用法及代碼示例
- Python tf.raw_ops.SparseCross用法及代碼示例
- Python tf.raw_ops.SparseConcat用法及代碼示例
- Python tf.raw_ops.SparseSegmentSumWithNumSegments用法及代碼示例
- Python tf.raw_ops.SparseMatrixSparseMatMul用法及代碼示例
- Python tf.raw_ops.SparseMatrixOrderingAMD用法及代碼示例
- Python tf.raw_ops.SparseFillEmptyRows用法及代碼示例
- Python tf.raw_ops.SparseSlice用法及代碼示例
- Python tf.raw_ops.SparseSplit用法及代碼示例
- Python tf.raw_ops.SparseMatrixSparseCholesky用法及代碼示例
- Python tf.raw_ops.SparseSegmentSum用法及代碼示例
- Python tf.raw_ops.SparseMatrixMatMul用法及代碼示例
- Python tf.raw_ops.SparseCrossHashed用法及代碼示例
- Python tf.raw_ops.SpaceToDepth用法及代碼示例
- Python tf.raw_ops.SpaceToBatch用法及代碼示例
- Python tf.raw_ops.SpaceToBatchND用法及代碼示例
- Python tf.raw_ops.SelfAdjointEigV2用法及代碼示例
- Python tf.raw_ops.Size用法及代碼示例
- Python tf.raw_ops.ScatterUpdate用法及代碼示例
- Python tf.raw_ops.ScatterNdUpdate用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.raw_ops.SparseToDense。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。