整流线性单元激活函数。
用法
tf.keras.layers.ReLU(
max_value=None, negative_slope=0.0, threshold=0.0, **kwargs
)
参数
-
max_value
Float >= 0。最大激活值。默认为无,表示无限制。 -
negative_slope
Float >= 0。负斜率系数。默认为 0。 -
threshold
Float >= 0。阈值激活的阈值。默认为 0。
使用默认值,它按元素返回 max(x, 0)
。
否则,如下:
f(x) = max_value if x >= max_value
f(x) = x if threshold <= x < max_value
f(x) = negative_slope * (x - threshold) otherwise
用法:
layer = tf.keras.layers.ReLU()
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[0.0, 0.0, 0.0, 2.0]
layer = tf.keras.layers.ReLU(max_value=1.0)
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[0.0, 0.0, 0.0, 1.0]
layer = tf.keras.layers.ReLU(negative_slope=1.0)
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[-3.0, -1.0, 0.0, 2.0]
layer = tf.keras.layers.ReLU(threshold=1.5)
output = layer([-3.0, -1.0, 1.0, 2.0])
list(output.numpy())
[0.0, 0.0, 0.0, 2.0]
输入形状:
随意的。将此层用作模型中的第一层时,请使用关键字参数input_shape
(整数元组,不包括批处理轴)。
输出形状:
与输入的形状相同。
相关用法
- Python tf.keras.layers.RepeatVector用法及代码示例
- Python tf.keras.layers.Reshape用法及代码示例
- Python tf.keras.layers.RNN用法及代码示例
- Python tf.keras.layers.RandomZoom用法及代码示例
- Python tf.keras.layers.InputLayer用法及代码示例
- Python tf.keras.layers.serialize用法及代码示例
- Python tf.keras.layers.Dropout用法及代码示例
- Python tf.keras.layers.maximum用法及代码示例
- Python tf.keras.layers.LayerNormalization用法及代码示例
- Python tf.keras.layers.Conv2D用法及代码示例
- Python tf.keras.layers.Multiply用法及代码示例
- Python tf.keras.layers.Activation用法及代码示例
- Python tf.keras.layers.Conv1D用法及代码示例
- Python tf.keras.layers.experimental.preprocessing.PreprocessingLayer.adapt用法及代码示例
- Python tf.keras.layers.CategoryEncoding用法及代码示例
- Python tf.keras.layers.subtract用法及代码示例
- Python tf.keras.layers.experimental.preprocessing.HashedCrossing用法及代码示例
- Python tf.keras.layers.Subtract用法及代码示例
- Python tf.keras.layers.ZeroPadding3D用法及代码示例
- Python tf.keras.layers.MaxPool3D用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.layers.ReLU。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。