应用整流线性单元激活函数。
用法
tf.keras.activations.relu(
x, alpha=0.0, max_value=None, threshold=0.0
)
参数
-
x
输入tensor
或variable
。 -
alpha
一个float
,用于控制低于阈值的值的斜率。 -
max_value
float
设置饱和阈值(函数将返回的最大值)。 -
threshold
float
给出激活函数的阈值,低于该阈值的值将被阻尼或设置为零。
返回
-
Tensor
表示输入张量,由 relu 激活函数转换。张量将具有与输入x
相同的形状和 dtype。
使用默认值,这将返回标准的 ReLU 激活:max(x, 0)
、0 的元素最大值和输入张量。
修改默认参数允许您使用非零阈值、更改激活的最大值以及对低于阈值的值使用输入的非零倍数。
例如:
foo = tf.constant([-10, -5, 0.0, 5, 10], dtype = tf.float32)
tf.keras.activations.relu(foo).numpy()
array([ 0., 0., 0., 5., 10.], dtype=float32)
tf.keras.activations.relu(foo, alpha=0.5).numpy()
array([-5. , -2.5, 0. , 5. , 10. ], dtype=float32)
tf.keras.activations.relu(foo, max_value=5.).numpy()
array([0., 0., 0., 5., 5.], dtype=float32)
tf.keras.activations.relu(foo, threshold=5.).numpy()
array([-0., -0., 0., 0., 10.], dtype=float32)
相关用法
- Python tf.keras.activations.softplus用法及代码示例
- Python tf.keras.activations.deserialize用法及代码示例
- Python tf.keras.activations.elu用法及代码示例
- Python tf.keras.activations.gelu用法及代码示例
- Python tf.keras.activations.linear用法及代码示例
- Python tf.keras.activations.swish用法及代码示例
- Python tf.keras.activations.sigmoid用法及代码示例
- Python tf.keras.activations.tanh用法及代码示例
- Python tf.keras.activations.hard_sigmoid用法及代码示例
- Python tf.keras.activations.softsign用法及代码示例
- Python tf.keras.activations.exponential用法及代码示例
- Python tf.keras.activations.softmax用法及代码示例
- Python tf.keras.activations.get用法及代码示例
- Python tf.keras.activations.selu用法及代码示例
- Python tf.keras.activations.serialize用法及代码示例
- Python tf.keras.applications.inception_resnet_v2.preprocess_input用法及代码示例
- Python tf.keras.applications.resnet50.preprocess_input用法及代码示例
- Python tf.keras.applications.imagenet_utils.preprocess_input用法及代码示例
- Python tf.keras.applications.vgg16.preprocess_input用法及代码示例
- Python tf.keras.applications.resnet_v2.preprocess_input用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.activations.relu。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。