當前位置: 首頁>>代碼示例>>Python>>正文


Python gen_nn_ops._softplus_grad方法代碼示例

本文整理匯總了Python中tensorflow.python.ops.gen_nn_ops._softplus_grad方法的典型用法代碼示例。如果您正苦於以下問題:Python gen_nn_ops._softplus_grad方法的具體用法?Python gen_nn_ops._softplus_grad怎麽用?Python gen_nn_ops._softplus_grad使用的例子?那麽, 這裏精選的方法代碼示例或許可以為您提供幫助。您也可以進一步了解該方法所在tensorflow.python.ops.gen_nn_ops的用法示例。


在下文中一共展示了gen_nn_ops._softplus_grad方法的4個代碼示例,這些例子默認根據受歡迎程度排序。您可以為喜歡或者感覺有用的代碼點讚,您的評價將有助於係統推薦出更棒的Python代碼示例。

示例1: _SoftplusGrad

# 需要導入模塊: from tensorflow.python.ops import gen_nn_ops [as 別名]
# 或者: from tensorflow.python.ops.gen_nn_ops import _softplus_grad [as 別名]
def _SoftplusGrad(op, grad):
  return gen_nn_ops._softplus_grad(grad, op.inputs[0]) 
開發者ID:ryfeus,項目名稱:lambda-packs,代碼行數:4,代碼來源:nn_grad.py

示例2: _SoftplusGradGrad

# 需要導入模塊: from tensorflow.python.ops import gen_nn_ops [as 別名]
# 或者: from tensorflow.python.ops.gen_nn_ops import _softplus_grad [as 別名]
def _SoftplusGradGrad(op, grad):
  # Let:
  #   y = tf.nn.softplus(x)
  #   dx = gen_nn_ops._softplus_grad(dy, x) = dy / (1 + exp(-x))
  # This op computes (ddy, d2x) from op.inputs == [dy, x] and grad == ddx.
  dy, x = op.inputs
  with ops.control_dependencies([grad.op]):
    ddy = gen_nn_ops._softplus_grad(grad, x)  # pylint: disable=protected-access
    d2x = grad * dy / (math_ops.exp(-x) + 2.0 + math_ops.exp(x))
    return (ddy, d2x) 
開發者ID:ryfeus,項目名稱:lambda-packs,代碼行數:12,代碼來源:nn_grad.py

示例3: _guided_grad_softplus

# 需要導入模塊: from tensorflow.python.ops import gen_nn_ops [as 別名]
# 或者: from tensorflow.python.ops.gen_nn_ops import _softplus_grad [as 別名]
def _guided_grad_softplus(op, grad):
    return guided_grad(gen_nn_ops._softplus_grad(grad, op.outputs[0])) 
開發者ID:darkonhub,項目名稱:darkon,代碼行數:4,代碼來源:guided_grad.py

示例4: _SoftplusGradGrad

# 需要導入模塊: from tensorflow.python.ops import gen_nn_ops [as 別名]
# 或者: from tensorflow.python.ops.gen_nn_ops import _softplus_grad [as 別名]
def _SoftplusGradGrad(op, grad):
  # Let:
  #   y = tf.nn.softplus(x)
  #   dx = gen_nn_ops._softplus_grad(dy, x) = dy / (1 + exp(-x))
  # This op computes (ddy, d2x) from op.inputs == [dy, x] and grad == ddx.
  dy, x = op.inputs
  with ops.control_dependencies([grad]):
    ddy = gen_nn_ops._softplus_grad(grad, x)  # pylint: disable=protected-access
    d2x = grad * dy / (math_ops.exp(-x) + 2.0 + math_ops.exp(x))
    return (ddy, d2x) 
開發者ID:PacktPublishing,項目名稱:Serverless-Deep-Learning-with-TensorFlow-and-AWS-Lambda,代碼行數:12,代碼來源:nn_grad.py


注:本文中的tensorflow.python.ops.gen_nn_ops._softplus_grad方法示例由純淨天空整理自Github/MSDocs等開源代碼及文檔管理平台,相關代碼片段篩選自各路編程大神貢獻的開源項目,源碼版權歸原作者所有,傳播和使用請參考對應項目的License;未經允許,請勿轉載。