用法:
mxnet.symbol.contrib.cond(pred, then_func, else_func, name='cond')
- pred:(
a MXNet Symbol representing a scalar.
) - 分支條件。 - then_func:(
a Python function.
) - 要執行的計算 ifpred
是真的。 - else_func:(
a Python function.
) - 要執行的計算 ifpred
是假的。
- pred:(
outputs:
一個符號或嵌套的符號列表,表示計算結果。
參數:
返回:
返回類型:
使用用戶定義的條件和計算運行if-then-else
此運算符模擬if-like 分支,該分支根據指定條件選擇執行兩個自定義計算之一。
pred
是一個標量 MXNet 符號,指示應該使用哪個計算分支。then_func
是一個用戶定義的函數,用作 then 分支的計算。它產生outputs
,這是一個符號列表。then_func
的簽名應該是then_func() => nested List[Symbol]
。else_func
是用戶定義的函數,用作else 分支的計算。它產生outputs
,這是一個符號列表。else_func
的簽名應該是else_func() => nested List[Symbol]
。由
then_func
和else_func
生成的outputs
應具有相同數量的元素,所有元素應具有相同的形狀、相同的dtype 和stype。該函數返回一個符號列表,表示計算結果。
例子:
>>> a, b = mx.sym.var('a'), mx.sym.var('b') >>> pred = a * b < 5 >>> then_func = lambda: (a + 5) * (b + 5) >>> else_func = lambda: (a - 5) * (b - 5) >>> outputs = mx.sym.contrib.cond(pred, then_func, else_func)
相關用法
- Python mxnet.symbol.contrib.count_sketch用法及代碼示例
- Python mxnet.symbol.contrib.dgl_graph_compact用法及代碼示例
- Python mxnet.symbol.contrib.rand_zipfian用法及代碼示例
- Python mxnet.symbol.contrib.group_adagrad_update用法及代碼示例
- Python mxnet.symbol.contrib.quadratic用法及代碼示例
- Python mxnet.symbol.contrib.edge_id用法及代碼示例
- Python mxnet.symbol.contrib.DeformableConvolution用法及代碼示例
- Python mxnet.symbol.contrib.while_loop用法及代碼示例
- Python mxnet.symbol.contrib.dgl_subgraph用法及代碼示例
- Python mxnet.symbol.contrib.ifft用法及代碼示例
- Python mxnet.symbol.contrib.boolean_mask用法及代碼示例
- Python mxnet.symbol.contrib.index_array用法及代碼示例
- Python mxnet.symbol.contrib.fft用法及代碼示例
- Python mxnet.symbol.contrib.allclose用法及代碼示例
- Python mxnet.symbol.contrib.dgl_csr_neighbor_uniform_sample用法及代碼示例
- Python mxnet.symbol.contrib.index_copy用法及代碼示例
- Python mxnet.symbol.contrib.ModulatedDeformableConvolution用法及代碼示例
- Python mxnet.symbol.contrib.dgl_csr_neighbor_non_uniform_sample用法及代碼示例
- Python mxnet.symbol.contrib.arange_like用法及代碼示例
- Python mxnet.symbol.contrib.SparseEmbedding用法及代碼示例
注:本文由純淨天空篩選整理自apache.org大神的英文原創作品 mxnet.symbol.contrib.cond。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。