空間數據的全局最大池化操作。
用法
tf.keras.layers.GlobalMaxPool2D(
data_format=None, keepdims=False, **kwargs
)
參數
-
data_format
一個字符串,是channels_last
(默認)或channels_first
之一。輸入中維度的排序。channels_last
對應於形狀為(batch, height, width, channels)
的輸入,而channels_first
對應於形狀為(batch, channels, height, width)
的輸入。它默認為您的 Keras 配置文件中的image_data_format
值~/.keras/keras.json
。如果您從未設置它,那麽它將是"channels_last"。 -
keepdims
一個布爾值,是否保持空間維度。如果keepdims
是False
(默認),則張量的秩會針對空間維度降低。如果keepdims
是True
,則空間維度保留長度為 1。行為與tf.reduce_max
或np.max
相同。
例子:
input_shape = (2, 4, 5, 3)
x = tf.random.normal(input_shape)
y = tf.keras.layers.GlobalMaxPool2D()(x)
print(y.shape)
(2, 3)
輸入形狀:
- 如果
data_format='channels_last'
:形狀為(batch_size, rows, cols, channels)
的 4D 張量。 - 如果
data_format='channels_first'
:形狀為(batch_size, channels, rows, cols)
的 4D 張量。
輸出形狀:
- 如果
keepdims
=False:形狀為(batch_size, channels)
的二維張量。 - 如果
keepdims
=真:- 如果
data_format='channels_last'
:形狀為(batch_size, 1, 1, channels)
的 4D 張量 - 如果
data_format='channels_first'
:形狀為(batch_size, channels, 1, 1)
的 4D 張量
- 如果
相關用法
- Python tf.keras.layers.GlobalMaxPool1D用法及代碼示例
- Python tf.keras.layers.GlobalAveragePooling1D用法及代碼示例
- Python tf.keras.layers.GlobalAveragePooling2D用法及代碼示例
- Python tf.keras.layers.GRUCell用法及代碼示例
- Python tf.keras.layers.GRU用法及代碼示例
- Python tf.keras.layers.InputLayer用法及代碼示例
- Python tf.keras.layers.serialize用法及代碼示例
- Python tf.keras.layers.Dropout用法及代碼示例
- Python tf.keras.layers.maximum用法及代碼示例
- Python tf.keras.layers.LayerNormalization用法及代碼示例
- Python tf.keras.layers.Conv2D用法及代碼示例
- Python tf.keras.layers.RepeatVector用法及代碼示例
- Python tf.keras.layers.Multiply用法及代碼示例
- Python tf.keras.layers.Activation用法及代碼示例
- Python tf.keras.layers.Conv1D用法及代碼示例
- Python tf.keras.layers.experimental.preprocessing.PreprocessingLayer.adapt用法及代碼示例
- Python tf.keras.layers.CategoryEncoding用法及代碼示例
- Python tf.keras.layers.subtract用法及代碼示例
- Python tf.keras.layers.experimental.preprocessing.HashedCrossing用法及代碼示例
- Python tf.keras.layers.Subtract用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.layers.GlobalMaxPool2D。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。