本文整理汇总了Python中sequence_layers.Attention方法的典型用法代码示例。如果您正苦于以下问题:Python sequence_layers.Attention方法的具体用法?Python sequence_layers.Attention怎么用?Python sequence_layers.Attention使用的例子?那么恭喜您, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在类sequence_layers
的用法示例。
在下文中一共展示了sequence_layers.Attention方法的1个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Python代码示例。
示例1: test_attention_char_logits_with_correct_shape
# 需要导入模块: import sequence_layers [as 别名]
# 或者: from sequence_layers import Attention [as 别名]
def test_attention_char_logits_with_correct_shape(self):
batch_size = 2
seq_length = 4
num_char_classes = 3
layer = create_layer(sequence_layers.Attention, batch_size, seq_length,
num_char_classes)
char_logits = layer.create_logits()
self.assertEqual(
tf.TensorShape([batch_size, seq_length, num_char_classes]),
char_logits.get_shape())