当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.layers.Activation用法及代码示例


将激活函数应用于输出。

继承自:LayerModule

用法

tf.keras.layers.Activation(
    activation, **kwargs
)

参数

  • activation 激活函数,如tf.nn.relu,或内置激活函数的字符串名称,如"relu"。

用法:

layer = tf.keras.layers.Activation('relu')
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[0.0, 0.0, 0.0, 2.0]
layer = tf.keras.layers.Activation(tf.nn.relu)
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[0.0, 0.0, 0.0, 2.0]

输入形状:

随意的。将此层用作模型中的第一层时,请使用关键字参数input_shape(整数元组,不包括批处理轴)。

输出形状:

与输入的形状相同。

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.layers.Activation。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。