用法:
mxnet.autograd.grad(heads, variables, head_grads=None, retain_graph=None, create_graph=False, train_mode=True)
- heads:(
NDArray
or
list of NDArray
) - 输出 NDArray(s) - variables:(
NDArray
or
list of NDArray
) - 输入变量来计算梯度。 - head_grads:(
NDArray
or
list of NDArray
or
None
) - 相对于头部的梯度。 - retain_graph:(
bool
) - 是否保持计算图再次微分,而不是清除历史并释放内存。默认为与 create_graph 相同的值。 - create_graph:(
bool
) - 是否记录梯度图以计算高阶 - train_mode:(
bool
,
optional
) - 是否向后进行训练或预测。
- heads:(
关于变量的梯度。
NDArray 或 NDArray 列表
参数:
返回:
返回类型:
计算头部 w.r.t 变量的梯度。渐变将作为新的 NDArrays 返回,而不是存储到
variable.grad
中。支持记录梯度图以计算高阶梯度。注意:
目前只有非常有限的一组运算符支持高阶梯度。
例子:
>>> x = mx.nd.ones((1,)) >>> x.attach_grad() >>> with mx.autograd.record(): ... z = mx.nd.elemwise_add(mx.nd.exp(x), x) >>> dx = mx.autograd.grad(z, [x], create_graph=True) >>> print(dx) [ [ 3.71828175] <NDArray 1 @cpu(0)>]
相关用法
- Python mxnet.autograd.predict_mode用法及代码示例
- Python mxnet.autograd.record用法及代码示例
- Python mxnet.autograd.pause用法及代码示例
- Python mxnet.autograd.Function用法及代码示例
- Python mxnet.autograd.train_mode用法及代码示例
- Python mxnet.symbol.op.broadcast_logical_xor用法及代码示例
- Python mxnet.test_utils.get_zip_data用法及代码示例
- Python mxnet.ndarray.op.uniform用法及代码示例
- Python mxnet.symbol.op.log_softmax用法及代码示例
- Python mxnet.symbol.space_to_depth用法及代码示例
- Python mxnet.ndarray.op.sample_negative_binomial用法及代码示例
- Python mxnet.ndarray.NDArray.ndim用法及代码示例
- Python mxnet.module.BaseModule.get_outputs用法及代码示例
- Python mxnet.module.BaseModule.forward用法及代码示例
- Python mxnet.symbol.random_pdf_poisson用法及代码示例
- Python mxnet.ndarray.op.khatri_rao用法及代码示例
- Python mxnet.ndarray.op.unravel_index用法及代码示例
- Python mxnet.symbol.argmin用法及代码示例
- Python mxnet.symbol.linalg_potrf用法及代码示例
- Python mxnet.ndarray.contrib.group_adagrad_update用法及代码示例
注:本文由纯净天空筛选整理自apache.org大神的英文原创作品 mxnet.autograd.grad。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。