沿张量的稀疏段计算总和。
用法
tf.sparse.segment_sum(
data, indices, segment_ids, num_segments=None, name=None
)
参数
-
data
一个Tensor
,其中包含将在输出中组装的数据。 -
indices
一维Tensor
索引为data
。与segment_ids
具有相同的等级。 -
segment_ids
一维Tensor
索引到输出Tensor
。值应该排序并且可以重复。 -
num_segments
一个可选的 int32 标量。指示输出Tensor
的大小。 -
name
操作的名称(可选)。
返回
-
形状的
tensor
作为数据,除了尺寸为k
的维度 0,通过num_segments
指定的段数或为segments_ids
中的最后一个元素推断。
阅读分段部分以了解分段的说明。
与 tf.math.segment_sum
类似,但 segment_ids
的排名可以小于 data
的第一个维度,选择维度 0 的子集,由 indices
指定。 segment_ids
允许缺少 id,在这种情况下,这些索引处的输出将为零。在这些情况下,num_segments
用于确定输出的大小。
例如:
c = tf.constant([[1,2,3,4], [-1,-2,-3,-4], [5,6,7,8]])
# Select two rows, one segment.
tf.sparse.segment_sum(c, tf.constant([0, 1]), tf.constant([0, 0]))
# => [[0 0 0 0]]
# Select two rows, two segment.
tf.sparse.segment_sum(c, tf.constant([0, 1]), tf.constant([0, 1]))
# => [[ 1 2 3 4]
# [-1 -2 -3 -4]]
# With missing segment ids.
tf.sparse.segment_sum(c, tf.constant([0, 1]), tf.constant([0, 2]),
num_segments=4)
# => [[ 1 2 3 4]
# [ 0 0 0 0]
# [-1 -2 -3 -4]
# [ 0 0 0 0]]
# Select all rows, two segments.
tf.sparse.segment_sum(c, tf.constant([0, 1, 2]), tf.constant([0, 0, 1]))
# => [[0 0 0 0]
# [5 6 7 8]]
# Which is equivalent to:
tf.math.segment_sum(c, tf.constant([0, 0, 1]))
相关用法
- Python tf.sparse.split用法及代码示例
- Python tf.sparse.softmax用法及代码示例
- Python tf.sparse.slice用法及代码示例
- Python tf.sparse.sparse_dense_matmul用法及代码示例
- Python tf.sparse.cross用法及代码示例
- Python tf.sparse.mask用法及代码示例
- Python tf.sparse.to_dense用法及代码示例
- Python tf.sparse.expand_dims用法及代码示例
- Python tf.sparse.maximum用法及代码示例
- Python tf.sparse.bincount用法及代码示例
- Python tf.sparse.concat用法及代码示例
- Python tf.sparse.transpose用法及代码示例
- Python tf.sparse.reduce_sum用法及代码示例
- Python tf.sparse.to_indicator用法及代码示例
- Python tf.sparse.from_dense用法及代码示例
- Python tf.sparse.retain用法及代码示例
- Python tf.sparse.minimum用法及代码示例
- Python tf.sparse.reduce_max用法及代码示例
- Python tf.sparse.fill_empty_rows用法及代码示例
- Python tf.sparse.cross_hashed用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.sparse.segment_sum。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。