TensorFlow是Google设计的开源Python库,用于开发机器学习模型和深度学习神经网络。
GradientTape()用于记录自动区分的操作。
用法:tensorflow.GradientTape( persistent, watch_accessed_variables)
参数:
- persistent(optional):它可以是True或False,默认值为False。它定义是否创建持久渐变磁带。
- watch_accessed_variables:这是一个布尔值,用于定义在磁带处于活动状态时磁带是否将自动监视任何(可训练的)变量。
范例1:
Python3
# Importing the library
import tensorflow as tf
x = tf.constant(4.0)
# Using GradientTape
with tf.GradientTape() as gfg:
gfg.watch(x)
y = x * x * x
# Computing gradient
res = gfg.gradient(y, x)
# Printing result
print("res:",res)
输出:
res: tf.Tensor(48.0, shape=(), dtype=float32)
范例2:
Python3
# Importing the library
import tensorflow as tf
x = tf.constant(4.0)
# Using GradientTape
with tf.GradientTape() as gfg:
gfg.watch(x)
# Using nested GradientTape for calculating higher order derivative
with tf.GradientTape() as gg:
gg.watch(x)
y = x * x * x
# Computing first order gradient
first_order = gg.gradient(y, x)
# Computing Second order gradient
second_order = gfg.gradient(first_order, x)
# Printing result
print("first_order:",first_order)
print("second_order:",second_order)
输出:
first_order: tf.Tensor(48.0, shape=(), dtype=float32) second_order: tf.Tensor(24.0, shape=(), dtype=float32)
相关用法
注:本文由纯净天空筛选整理自aman neekhara大神的英文原创作品 Python – tensorflow.GradientTape()。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。