應用整流線性單元激活函數。
用法
tf.keras.activations.relu(
x, alpha=0.0, max_value=None, threshold=0.0
)
參數
-
x
輸入tensor
或variable
。 -
alpha
一個float
,用於控製低於閾值的值的斜率。 -
max_value
float
設置飽和閾值(函數將返回的最大值)。 -
threshold
float
給出激活函數的閾值,低於該閾值的值將被阻尼或設置為零。
返回
-
Tensor
表示輸入張量,由 relu 激活函數轉換。張量將具有與輸入x
相同的形狀和 dtype。
使用默認值,這將返回標準的 ReLU 激活:max(x, 0)
、0 的元素最大值和輸入張量。
修改默認參數允許您使用非零閾值、更改激活的最大值以及對低於閾值的值使用輸入的非零倍數。
例如:
foo = tf.constant([-10, -5, 0.0, 5, 10], dtype = tf.float32)
tf.keras.activations.relu(foo).numpy()
array([ 0., 0., 0., 5., 10.], dtype=float32)
tf.keras.activations.relu(foo, alpha=0.5).numpy()
array([-5. , -2.5, 0. , 5. , 10. ], dtype=float32)
tf.keras.activations.relu(foo, max_value=5.).numpy()
array([0., 0., 0., 5., 5.], dtype=float32)
tf.keras.activations.relu(foo, threshold=5.).numpy()
array([-0., -0., 0., 0., 10.], dtype=float32)
相關用法
- Python tf.keras.activations.softplus用法及代碼示例
- Python tf.keras.activations.deserialize用法及代碼示例
- Python tf.keras.activations.elu用法及代碼示例
- Python tf.keras.activations.gelu用法及代碼示例
- Python tf.keras.activations.linear用法及代碼示例
- Python tf.keras.activations.swish用法及代碼示例
- Python tf.keras.activations.sigmoid用法及代碼示例
- Python tf.keras.activations.tanh用法及代碼示例
- Python tf.keras.activations.hard_sigmoid用法及代碼示例
- Python tf.keras.activations.softsign用法及代碼示例
- Python tf.keras.activations.exponential用法及代碼示例
- Python tf.keras.activations.softmax用法及代碼示例
- Python tf.keras.activations.get用法及代碼示例
- Python tf.keras.activations.selu用法及代碼示例
- Python tf.keras.activations.serialize用法及代碼示例
- Python tf.keras.applications.inception_resnet_v2.preprocess_input用法及代碼示例
- Python tf.keras.applications.resnet50.preprocess_input用法及代碼示例
- Python tf.keras.applications.imagenet_utils.preprocess_input用法及代碼示例
- Python tf.keras.applications.vgg16.preprocess_input用法及代碼示例
- Python tf.keras.applications.resnet_v2.preprocess_input用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.activations.relu。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。