当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.activations.softmax用法及代码示例


Softmax 将值向量转换为概率分布。

用法

tf.keras.activations.softmax(
    x, axis=-1
)

参数

  • x 输入张量。
  • axis 整数,沿其应用 softmax 归一化的轴。

返回

  • 张量,softmax 变换的输出(所有值都是非负的并且总和为 1)。

输出向量的元素在 (0, 1) 范围内并且总和为 1。

每个向量都是独立处理的。 axis 参数设置函数应用的输入轴。

Softmax 通常用作分类网络最后一层的激活,因为结果可以解释为概率分布。

每个向量 x 的 softmax 计算为 exp(x) / tf.reduce_sum(exp(x))

中的输入值是结果概率的log-odds。

例子:

示例 1:独立使用

inputs = tf.random.normal(shape=(32, 10))
outputs = tf.keras.activations.softmax(inputs)
tf.reduce_sum(outputs[0,:])  # Each sample in the batch now sums to 1
<tf.Tensor:shape=(), dtype=float32, numpy=1.0000001>

示例 2:在 Dense 层中的用法

layer = tf.keras.layers.Dense(32, activation=tf.keras.activations.softmax)

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.activations.softmax。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。