当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.nn.gelu用法及代码示例


计算高斯误差线性单元 (GELU) 激活函数。

用法

tf.nn.gelu(
    features, approximate=False, name=None
)

参数

  • features Tensor 表示预激活值。
  • approximate 可选的 bool 。默认为 False 。是否启用近似。
  • name 操作的名称(可选)。

返回

  • features 具有相同类型的 Tensor

高斯误差线性单元 (GELU) 计算 x * P(X <= x) ,其中 P(X) ~ N(0, 1) 。 (GELU) 非线性按输入值加权输入,而不是像 ReLU 中那样按符号对输入进行门控。

例如:

x = tf.constant([-3.0, -1.0, 0.0, 1.0, 3.0], dtype=tf.float32)
y = tf.nn.gelu(x)
y.numpy()
array([-0.00404951, -0.15865529,  0.        ,  0.8413447 ,  2.9959507 ],
    dtype=float32)
y = tf.nn.gelu(x, approximate=True)
y.numpy()
array([-0.00363752, -0.15880796,  0.        ,  0.841192  ,  2.9963627 ],
    dtype=float32)

参考:

高斯误差线性单位 (GELU).

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.nn.gelu。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。