当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python mxnet.symbol.op.softmax_cross_entropy用法及代码示例


用法:

mxnet.symbol.op.softmax_cross_entropy(data=None, label=None, name=None, attr=None, out=None, **kwargs)

参数

  • data(Symbol) - 输入数据
  • label(Symbol) - 输入标签
  • name(string, optional.) - 结果符号的名称。

返回

结果符号。

返回类型

Symbol

计算softmax输出和one-hot标签的交叉熵。

  • 此运算符分两步计算交叉熵: - 对输入数组应用 softmax 函数。 - 计算并返回 softmax 输出和标签之间的交叉熵损失。

  • softmax 函数和交叉熵损失由下式给出:

    • 软最大函数:

    • 交叉熵函数:

例子:

x = [[1, 2, 3],
     [11, 7, 5]]

label = [2, 0]

softmax(x) = [[0.09003057, 0.24472848, 0.66524094],
              [0.97962922, 0.01794253, 0.00242826]]

softmax_cross_entropy(data, label) = - log(0.66524084) - log(0.97962922) = 0.4281871

相关用法


注:本文由纯净天空筛选整理自apache.org大神的英文原创作品 mxnet.symbol.op.softmax_cross_entropy。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。