局部響應歸一化。
用法
tf.nn.local_response_normalization(
input, depth_radius=5, bias=1, alpha=1, beta=0.5, name=None
)
參數
-
input
一個Tensor
。必須是以下類型之一:half
,bfloat16
,float32
。 4-D。 -
depth_radius
可選的int
。默認為5
。 0-D。一維歸一化窗口的Half-width。 -
bias
可選的float
。默認為1
。偏移量(通常為正數以避免除以 0)。 -
alpha
可選的float
。默認為1
。比例因子,通常為正。 -
beta
可選的float
。默認為0.5
。一個 index 。 -
name
操作的名稱(可選)。
返回
-
一個
Tensor
。具有與input
相同的類型。
4-D input
張量被視為 1-D 向量的 3-D 數組(沿最後一維),並且每個向量都被獨立歸一化。在給定的向量中,每個分量都除以 depth_radius
中輸入的加權平方和。詳細地,
sqr_sum[a, b, c, d] =
sum(input[a, b, c, d - depth_radius:d + depth_radius + 1] ** 2)
output = input / (bias + alpha * sqr_sum) ** beta
有關詳細信息,請參閱 Krizhevsky 等人,使用深度卷積神經網絡進行 ImageNet 分類 (NIPS 2012)。
相關用法
- Python tf.nn.log_softmax用法及代碼示例
- Python tf.nn.log_poisson_loss用法及代碼示例
- Python tf.nn.l2_loss用法及代碼示例
- Python tf.nn.embedding_lookup_sparse用法及代碼示例
- Python tf.nn.RNNCellResidualWrapper.set_weights用法及代碼示例
- Python tf.nn.dropout用法及代碼示例
- Python tf.nn.gelu用法及代碼示例
- Python tf.nn.RNNCellDeviceWrapper.set_weights用法及代碼示例
- Python tf.nn.embedding_lookup用法及代碼示例
- Python tf.nn.RNNCellDeviceWrapper.get_weights用法及代碼示例
- Python tf.nn.scale_regularization_loss用法及代碼示例
- Python tf.nn.RNNCellResidualWrapper.add_loss用法及代碼示例
- Python tf.nn.max_pool用法及代碼示例
- Python tf.nn.RNNCellDropoutWrapper.set_weights用法及代碼示例
- Python tf.nn.weighted_cross_entropy_with_logits用法及代碼示例
- Python tf.nn.ctc_greedy_decoder用法及代碼示例
- Python tf.nn.dilation2d用法及代碼示例
- Python tf.nn.RNNCellResidualWrapper.get_weights用法及代碼示例
- Python tf.nn.compute_average_loss用法及代碼示例
- Python tf.nn.RNNCellDeviceWrapper用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.nn.local_response_normalization。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。