Softmax 将值向量转换为概率分布。
用法
tf.keras.activations.softmax(
x, axis=-1
)
参数
-
x
输入张量。 -
axis
整数,沿其应用 softmax 归一化的轴。
返回
- 张量,softmax 变换的输出(所有值都是非负的并且总和为 1)。
输出向量的元素在 (0, 1) 范围内并且总和为 1。
每个向量都是独立处理的。 axis
参数设置函数应用的输入轴。
Softmax 通常用作分类网络最后一层的激活,因为结果可以解释为概率分布。
每个向量 x 的 softmax 计算为 exp(x) / tf.reduce_sum(exp(x))
。
中的输入值是结果概率的log-odds。
例子:
示例 1:独立使用
inputs = tf.random.normal(shape=(32, 10))
outputs = tf.keras.activations.softmax(inputs)
tf.reduce_sum(outputs[0,:]) # Each sample in the batch now sums to 1
<tf.Tensor:shape=(), dtype=float32, numpy=1.0000001>
示例 2:在 Dense
层中的用法
layer = tf.keras.layers.Dense(32, activation=tf.keras.activations.softmax)
相关用法
- Python tf.keras.activations.softplus用法及代码示例
- Python tf.keras.activations.softsign用法及代码示例
- Python tf.keras.activations.swish用法及代码示例
- Python tf.keras.activations.sigmoid用法及代码示例
- Python tf.keras.activations.selu用法及代码示例
- Python tf.keras.activations.serialize用法及代码示例
- Python tf.keras.activations.deserialize用法及代码示例
- Python tf.keras.activations.elu用法及代码示例
- Python tf.keras.activations.relu用法及代码示例
- Python tf.keras.activations.gelu用法及代码示例
- Python tf.keras.activations.linear用法及代码示例
- Python tf.keras.activations.tanh用法及代码示例
- Python tf.keras.activations.hard_sigmoid用法及代码示例
- Python tf.keras.activations.exponential用法及代码示例
- Python tf.keras.activations.get用法及代码示例
- Python tf.keras.applications.inception_resnet_v2.preprocess_input用法及代码示例
- Python tf.keras.applications.resnet50.preprocess_input用法及代码示例
- Python tf.keras.applications.imagenet_utils.preprocess_input用法及代码示例
- Python tf.keras.applications.vgg16.preprocess_input用法及代码示例
- Python tf.keras.applications.resnet_v2.preprocess_input用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.activations.softmax。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。