用法:
mxnet.symbol.contrib.cond(pred, then_func, else_func, name='cond')
- pred:(
a MXNet Symbol representing a scalar.
) - 分支条件。 - then_func:(
a Python function.
) - 要执行的计算 ifpred
是真的。 - else_func:(
a Python function.
) - 要执行的计算 ifpred
是假的。
- pred:(
outputs:
一个符号或嵌套的符号列表,表示计算结果。
参数:
返回:
返回类型:
使用用户定义的条件和计算运行if-then-else
此运算符模拟if-like 分支,该分支根据指定条件选择执行两个自定义计算之一。
pred
是一个标量 MXNet 符号,指示应该使用哪个计算分支。then_func
是一个用户定义的函数,用作 then 分支的计算。它产生outputs
,这是一个符号列表。then_func
的签名应该是then_func() => nested List[Symbol]
。else_func
是用户定义的函数,用作else 分支的计算。它产生outputs
,这是一个符号列表。else_func
的签名应该是else_func() => nested List[Symbol]
。由
then_func
和else_func
生成的outputs
应具有相同数量的元素,所有元素应具有相同的形状、相同的dtype 和stype。该函数返回一个符号列表,表示计算结果。
例子:
>>> a, b = mx.sym.var('a'), mx.sym.var('b') >>> pred = a * b < 5 >>> then_func = lambda: (a + 5) * (b + 5) >>> else_func = lambda: (a - 5) * (b - 5) >>> outputs = mx.sym.contrib.cond(pred, then_func, else_func)
相关用法
- Python mxnet.symbol.contrib.count_sketch用法及代码示例
- Python mxnet.symbol.contrib.dgl_graph_compact用法及代码示例
- Python mxnet.symbol.contrib.rand_zipfian用法及代码示例
- Python mxnet.symbol.contrib.group_adagrad_update用法及代码示例
- Python mxnet.symbol.contrib.quadratic用法及代码示例
- Python mxnet.symbol.contrib.edge_id用法及代码示例
- Python mxnet.symbol.contrib.DeformableConvolution用法及代码示例
- Python mxnet.symbol.contrib.while_loop用法及代码示例
- Python mxnet.symbol.contrib.dgl_subgraph用法及代码示例
- Python mxnet.symbol.contrib.ifft用法及代码示例
- Python mxnet.symbol.contrib.boolean_mask用法及代码示例
- Python mxnet.symbol.contrib.index_array用法及代码示例
- Python mxnet.symbol.contrib.fft用法及代码示例
- Python mxnet.symbol.contrib.allclose用法及代码示例
- Python mxnet.symbol.contrib.dgl_csr_neighbor_uniform_sample用法及代码示例
- Python mxnet.symbol.contrib.index_copy用法及代码示例
- Python mxnet.symbol.contrib.ModulatedDeformableConvolution用法及代码示例
- Python mxnet.symbol.contrib.dgl_csr_neighbor_non_uniform_sample用法及代码示例
- Python mxnet.symbol.contrib.arange_like用法及代码示例
- Python mxnet.symbol.contrib.SparseEmbedding用法及代码示例
注:本文由纯净天空筛选整理自apache.org大神的英文原创作品 mxnet.symbol.contrib.cond。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。