空間數據的全局平均池化操作。
用法
tf.keras.layers.GlobalAveragePooling2D(
data_format=None, keepdims=False, **kwargs
)參數
-
data_format一個字符串,是channels_last(默認)或channels_first之一。輸入中維度的排序。channels_last對應於形狀為(batch, height, width, channels)的輸入,而channels_first對應於形狀為(batch, channels, height, width)的輸入。它默認為您的 Keras 配置文件中的image_data_format值~/.keras/keras.json。如果您從未設置它,那麽它將是"channels_last"。 -
keepdims一個布爾值,是否保持空間維度。如果keepdims是False(默認),則張量的秩會針對空間維度降低。如果keepdims是True,則空間維度保留長度為 1。行為與tf.reduce_mean或np.mean相同。
例子:
input_shape = (2, 4, 5, 3)
x = tf.random.normal(input_shape)
y = tf.keras.layers.GlobalAveragePooling2D()(x)
print(y.shape)
(2, 3)
輸入形狀:
- 如果
data_format='channels_last':形狀為(batch_size, rows, cols, channels)的 4D 張量。 - 如果
data_format='channels_first':形狀為(batch_size, channels, rows, cols)的 4D 張量。
輸出形狀:
- 如果
keepdims=False:形狀為(batch_size, channels)的二維張量。 - 如果
keepdims=真:- 如果
data_format='channels_last':形狀為(batch_size, 1, 1, channels)的 4D 張量 - 如果
data_format='channels_first':形狀為(batch_size, channels, 1, 1)的 4D 張量
- 如果
相關用法
- Python tf.keras.layers.GlobalAveragePooling1D用法及代碼示例
- Python tf.keras.layers.GlobalMaxPool1D用法及代碼示例
- Python tf.keras.layers.GlobalMaxPool2D用法及代碼示例
- Python tf.keras.layers.GRUCell用法及代碼示例
- Python tf.keras.layers.GRU用法及代碼示例
- Python tf.keras.layers.InputLayer用法及代碼示例
- Python tf.keras.layers.serialize用法及代碼示例
- Python tf.keras.layers.Dropout用法及代碼示例
- Python tf.keras.layers.maximum用法及代碼示例
- Python tf.keras.layers.LayerNormalization用法及代碼示例
- Python tf.keras.layers.Conv2D用法及代碼示例
- Python tf.keras.layers.RepeatVector用法及代碼示例
- Python tf.keras.layers.Multiply用法及代碼示例
- Python tf.keras.layers.Activation用法及代碼示例
- Python tf.keras.layers.Conv1D用法及代碼示例
- Python tf.keras.layers.experimental.preprocessing.PreprocessingLayer.adapt用法及代碼示例
- Python tf.keras.layers.CategoryEncoding用法及代碼示例
- Python tf.keras.layers.subtract用法及代碼示例
- Python tf.keras.layers.experimental.preprocessing.HashedCrossing用法及代碼示例
- Python tf.keras.layers.Subtract用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.layers.GlobalAveragePooling2D。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。
