當前位置: 首頁>>代碼示例>>Python>>正文


Python training_ops.resource_apply_adam方法代碼示例

本文整理匯總了Python中tensorflow.python.training.training_ops.resource_apply_adam方法的典型用法代碼示例。如果您正苦於以下問題:Python training_ops.resource_apply_adam方法的具體用法?Python training_ops.resource_apply_adam怎麽用?Python training_ops.resource_apply_adam使用的例子?那麽, 這裏精選的方法代碼示例或許可以為您提供幫助。您也可以進一步了解該方法所在tensorflow.python.training.training_ops的用法示例。


在下文中一共展示了training_ops.resource_apply_adam方法的4個代碼示例,這些例子默認根據受歡迎程度排序。您可以為喜歡或者感覺有用的代碼點讚,您的評價將有助於係統推薦出更棒的Python代碼示例。

示例1: _resource_apply_dense

# 需要導入模塊: from tensorflow.python.training import training_ops [as 別名]
# 或者: from tensorflow.python.training.training_ops import resource_apply_adam [as 別名]
def _resource_apply_dense(self, grad, var):
        m = self.get_slot(var, "m")
        v = self.get_slot(var, "v")
        return training_ops.resource_apply_adam(
            var.handle,
            m.handle,
            v.handle,
            math_ops.cast(self._beta1_power, grad.dtype.base_dtype),
            math_ops.cast(self._beta2_power, grad.dtype.base_dtype),
            math_ops.cast(self._lr_t, grad.dtype.base_dtype),
            math_ops.cast(self._beta1_t, grad.dtype.base_dtype),
            math_ops.cast(self._beta2_t, grad.dtype.base_dtype),
            math_ops.cast(self._epsilon_t, grad.dtype.base_dtype),
            grad,
            use_locking=self._use_locking,
            use_nesterov=True)

    # keras Nadam update rule 
開發者ID:ChenglongChen,項目名稱:tensorflow-XNN,代碼行數:20,代碼來源:optimizer.py

示例2: _resource_apply_dense_in_action

# 需要導入模塊: from tensorflow.python.training import training_ops [as 別名]
# 或者: from tensorflow.python.training.training_ops import resource_apply_adam [as 別名]
def _resource_apply_dense_in_action(self, grad, var):
    m = self.get_slot(var, "m")
    v = self.get_slot(var, "v")
    beta1_power, beta2_power = self._get_beta_accumulators()
    return training_ops.resource_apply_adam(
        var.handle,
        m.handle,
        v.handle,
        tf.cast(beta1_power, grad.dtype.base_dtype),
        tf.cast(beta2_power, grad.dtype.base_dtype),
        tf.cast(self._lr_t, var.dtype.base_dtype),
        tf.cast(self._beta1_t, grad.dtype.base_dtype),
        tf.cast(self._beta2_t, grad.dtype.base_dtype),
        tf.cast(self._epsilon_t, grad.dtype.base_dtype),
        grad,
        use_locking=self._use_locking) 
開發者ID:tensorflow,項目名稱:tensor2tensor,代碼行數:18,代碼來源:multistep_with_adamoptimizer.py

示例3: _resource_apply_dense

# 需要導入模塊: from tensorflow.python.training import training_ops [as 別名]
# 或者: from tensorflow.python.training.training_ops import resource_apply_adam [as 別名]
def _resource_apply_dense(self, grad, var):
    m = self.get_slot(var, "m")
    v = self.get_slot(var, "v")
    return training_ops.resource_apply_adam(
        var.handle, m.handle, v.handle,
        math_ops.cast(self._beta1_power, grad.dtype.base_dtype),
        math_ops.cast(self._beta2_power, grad.dtype.base_dtype),
        math_ops.cast(self._lr_t, grad.dtype.base_dtype),
        math_ops.cast(self._beta1_t, grad.dtype.base_dtype),
        math_ops.cast(self._beta2_t, grad.dtype.base_dtype),
        math_ops.cast(self._epsilon_t, grad.dtype.base_dtype),
        grad, use_locking=self._use_locking) 
開發者ID:ryfeus,項目名稱:lambda-packs,代碼行數:14,代碼來源:adam.py

示例4: _resource_apply_dense

# 需要導入模塊: from tensorflow.python.training import training_ops [as 別名]
# 或者: from tensorflow.python.training.training_ops import resource_apply_adam [as 別名]
def _resource_apply_dense(self, grad, var):
    m = self.get_slot(var, "m")
    v = self.get_slot(var, "v")
    return training_ops.resource_apply_adam(
        var.handle, m.handle, v.handle,
        math_ops.cast(self._beta1_power, grad.dtype.base_dtype),
        math_ops.cast(self._beta2_power, grad.dtype.base_dtype),
        math_ops.cast(self._lr_t, grad.dtype.base_dtype),
        math_ops.cast(self._beta1_t, grad.dtype.base_dtype),
        math_ops.cast(self._beta2_t, grad.dtype.base_dtype),
        math_ops.cast(self._epsilon_t, grad.dtype.base_dtype),
        grad, use_locking=self._use_locking,
        use_nesterov=True) 
開發者ID:ryfeus,項目名稱:lambda-packs,代碼行數:15,代碼來源:nadam_optimizer.py


注:本文中的tensorflow.python.training.training_ops.resource_apply_adam方法示例由純淨天空整理自Github/MSDocs等開源代碼及文檔管理平台,相關代碼片段篩選自各路編程大神貢獻的開源項目,源碼版權歸原作者所有,傳播和使用請參考對應項目的License;未經允許,請勿轉載。