当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python mxnet.symbol.op.sgd_update用法及代码示例


用法:

mxnet.symbol.op.sgd_update(weight=None, grad=None, lr=_Null, wd=_Null, rescale_grad=_Null, clip_gradient=_Null, lazy_update=_Null, name=None, attr=None, out=None, **kwargs)

参数

  • weight(Symbol) - 重量
  • grad(Symbol) - 坡度
  • lr(float, required) - 学习率
  • wd(float, optional, default=0) - 权重衰减通过惩罚大权重的正则化项来增强目标函数。惩罚与每个权重大小的平方成比例。
  • rescale_grad(float, optional, default=1) - 将渐变重新缩放为 grad = rescale_grad*grad。
  • clip_gradient(float, optional, default=-1) - 将渐变剪裁到 [-clip_gradient, clip_gradient] 的范围内 如果clip_gradient <= 0,渐变剪裁被关闭。毕业 = 最大(最小(毕业,clip_gradient),-clip_gradient)。
  • lazy_update(boolean, optional, default=1) - 如果为 true,如果渐变的 stype 为 row_sparse,则应用延迟更新。
  • name(string, optional.) - 结果符号的名称。

返回

结果符号。

返回类型

Symbol

随机梯度下降 (SGD) 优化器的更新函数。

它使用以下方法更新权重:

weight = weight - learning_rate * (gradient + wd * weight)

但是,如果梯度为row_sparse 存储类型且lazy_update 为True,则仅更新索引出现在grad.indices 中的行切片:

for row in gradient.indices:
    weight[row] = weight[row] - learning_rate * (gradient[row] + wd * weight[row])

相关用法


注:本文由纯净天空筛选整理自apache.org大神的英文原创作品 mxnet.symbol.op.sgd_update。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。