将布尔蒙版应用于data
,而不展平蒙版尺寸。
用法
tf.ragged.boolean_mask(
data, mask, name=None
)
参数
-
data
一个可能参差不齐的张量。 -
mask
一个可能参差不齐的布尔张量。mask
的形状必须是data
的形状的前缀。rank(mask)
必须是静态已知的。 -
name
返回张量的名称前缀(可选)。
返回
-
通过将元素保留在
data
其中对应的值在mask
是True
.rank(output) = rank(data)
。output.ragged_rank = max(data.ragged_rank, rank(mask) - 1)
.
抛出
-
ValueError
如果rank(mask)
不是静态已知的;或者如果mask.shape
不是data.shape
的前缀。
返回一个可能参差不齐的张量,该张量是通过保留 data
中的元素而形成的,其中 mask
中的对应值为 True
。
output[a1...aA, i, b1...bB] = data[a1...aA, j, b1...bB]
其中
j
是i
thTrue
的mask[a1...aA]
条目。
请注意,output
保留了掩码尺寸 a1...aA
;这与 tf.boolean_mask
不同,后者会使这些尺寸变平。
例子:
# Aliases for True & False so data and mask line up.
T, F = (True, False)
tf.ragged.boolean_mask( # Mask a 2D Tensor.
data=[[1, 2, 3], [4, 5, 6], [7, 8, 9]],
mask=[[T, F, T], [F, F, F], [T, F, F]]).to_list()
[[1, 3], [], [7]]
tf.ragged.boolean_mask( # Mask a 2D RaggedTensor.
tf.ragged.constant([[1, 2, 3], [4], [5, 6]]),
tf.ragged.constant([[F, F, T], [F], [T, T]])).to_list()
[[3], [], [5, 6]]
tf.ragged.boolean_mask( # Mask rows of a 2D RaggedTensor.
tf.ragged.constant([[1, 2, 3], [4], [5, 6]]),
tf.ragged.constant([True, False, True])).to_list()
[[1, 2, 3], [5, 6]]
相关用法
- Python tf.ragged.cross用法及代码示例
- Python tf.ragged.stack_dynamic_partitions用法及代码示例
- Python tf.ragged.stack用法及代码示例
- Python tf.ragged.map_flat_values用法及代码示例
- Python tf.ragged.range用法及代码示例
- Python tf.ragged.row_splits_to_segment_ids用法及代码示例
- Python tf.ragged.cross_hashed用法及代码示例
- Python tf.ragged.segment_ids_to_row_splits用法及代码示例
- Python tf.ragged.constant用法及代码示例
- Python tf.raw_ops.TPUReplicatedInput用法及代码示例
- Python tf.raw_ops.Bitcast用法及代码示例
- Python tf.raw_ops.SelfAdjointEigV2用法及代码示例
- Python tf.raw_ops.BatchMatMul用法及代码示例
- Python tf.raw_ops.OneHot用法及代码示例
- Python tf.raw_ops.ResourceScatterNdSub用法及代码示例
- Python tf.raw_ops.ReadVariableXlaSplitND用法及代码示例
- Python tf.raw_ops.GatherV2用法及代码示例
- Python tf.raw_ops.Expm1用法及代码示例
- Python tf.range用法及代码示例
- Python tf.raw_ops.BitwiseAnd用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.ragged.boolean_mask。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。