硬 sigmoid 激活函数。
用法
tf.keras.activations.hard_sigmoid(
x
)
参数
-
x
输入张量。
返回
-
硬 sigmoid 激活,定义为:
if x < -2.5:return 0
if x > 2.5:return 1
if -2.5 <= x <= 2.5:return 0.2 * x + 0.5
sigmoid 激活的更快近似。 sigmoid 函数的分段线性逼近。参考:'https://en.wikipedia.org/wiki/Hard_sigmoid'
例如:
a = tf.constant([-3.0,-1.0, 0.0,1.0,3.0], dtype = tf.float32)
b = tf.keras.activations.hard_sigmoid(a)
b.numpy()
array([0. , 0.3, 0.5, 0.7, 1. ], dtype=float32)
相关用法
- Python tf.keras.activations.softplus用法及代码示例
- Python tf.keras.activations.deserialize用法及代码示例
- Python tf.keras.activations.elu用法及代码示例
- Python tf.keras.activations.relu用法及代码示例
- Python tf.keras.activations.gelu用法及代码示例
- Python tf.keras.activations.linear用法及代码示例
- Python tf.keras.activations.swish用法及代码示例
- Python tf.keras.activations.sigmoid用法及代码示例
- Python tf.keras.activations.tanh用法及代码示例
- Python tf.keras.activations.softsign用法及代码示例
- Python tf.keras.activations.exponential用法及代码示例
- Python tf.keras.activations.softmax用法及代码示例
- Python tf.keras.activations.get用法及代码示例
- Python tf.keras.activations.selu用法及代码示例
- Python tf.keras.activations.serialize用法及代码示例
- Python tf.keras.applications.inception_resnet_v2.preprocess_input用法及代码示例
- Python tf.keras.applications.resnet50.preprocess_input用法及代码示例
- Python tf.keras.applications.imagenet_utils.preprocess_input用法及代码示例
- Python tf.keras.applications.vgg16.preprocess_input用法及代码示例
- Python tf.keras.applications.resnet_v2.preprocess_input用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.activations.hard_sigmoid。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。