Locally-connected 层用于 2D 输入。
用法
tf.keras.layers.LocallyConnected2D(
filters, kernel_size, strides=(1, 1), padding='valid',
data_format=None, activation=None, use_bias=True,
kernel_initializer='glorot_uniform',
bias_initializer='zeros', kernel_regularizer=None,
bias_regularizer=None, activity_regularizer=None, kernel_constraint=None,
bias_constraint=None, implementation=1, **kwargs
)
参数
-
filters
整数,输出空间的维度(即卷积中输出滤波器的数量)。 -
kernel_size
一个整数或 2 个整数的元组/列表,指定 2D 卷积窗口的宽度和高度。可以是单个整数,为所有空间维度指定相同的值。 -
strides
一个整数或 2 个整数的元组/列表,指定卷积沿宽度和高度的步幅。可以是单个整数,为所有空间维度指定相同的值。 -
padding
目前仅支持"valid"
(不区分大小写)。将来会支持"same"
。"valid"
表示没有填充。 -
data_format
一个字符串,是channels_last
(默认)或channels_first
之一。输入中维度的排序。channels_last
对应于形状为(batch, height, width, channels)
的输入,而channels_first
对应于形状为(batch, channels, height, width)
的输入。它默认为您的 Keras 配置文件中的image_data_format
值~/.keras/keras.json
。如果您从未设置它,那么它将是"channels_last"。 -
activation
要使用的激活函数。如果您未指定任何内容,则不会应用任何激活(即 "linear" 激活:a(x) = x
)。 -
use_bias
布尔值,层是否使用偏置向量。 -
kernel_initializer
kernel
权重矩阵的初始化程序。 -
bias_initializer
偏置向量的初始化器。 -
kernel_regularizer
应用于kernel
权重矩阵的正则化函数。 -
bias_regularizer
应用于偏置向量的正则化函数。 -
activity_regularizer
应用于层输出的正则化函数("activation")。 -
kernel_constraint
应用于核矩阵的约束函数。 -
bias_constraint
应用于偏置向量的约束函数。 -
implementation
实现模式,可以是1
,2
,也可以是3
。1
循环输入空间位置以执行前向传递。它节省内存,但执行很多(小)操作。2
将层权重存储在一个密集但 sparsely-populated 2D 矩阵中,并将前向传递实现为单个 matrix-multiply。它使用大量 RAM,但执行很少(大)操作。3
将层权重存储在稀疏张量中,并将前向传递实现为单个稀疏matrix-multiply。如何选择:1
:大,密集模型,2
:小模型,3
:大,稀疏模型,其中"large"代表大输入/输出激活(即许多filters
,input_filters
,大np.prod(input_size)
,np.prod(output_size)
) 和 "sparse" 代表输入和输出之间的连接少,即小比率filters * input_filters * np.prod(kernel_size) / (np.prod(input_size) * np.prod(strides))
,其中假设层的输入和输出分别具有形状input_size + (input_filters,)
,output_size + (filters,)
。建议在感兴趣的设置中对每个进行基准测试,以选择最有效的一个(在速度和内存使用方面)。正确选择实现可以显著提高速度(例如 50 倍),但可能会以 RAM 为代价。此外,implementation=1
仅支持padding="valid"
。
LocallyConnected2D
层的工作方式与Conv2D
层类似,不同之处在于权重是不共享的,即在输入的每个不同块上应用一组不同的过滤器。
注意:图层调用一次后不能修改图层属性(trainable
属性除外)。
例子:
# apply a 3x3 unshared weights convolution with 64 output filters on a
32x32 image
# with `data_format="channels_last"`:
model = Sequential()
model.add(LocallyConnected2D(64, (3, 3), input_shape=(32, 32, 3)))
# now model.output_shape == (None, 30, 30, 64)
# notice that this layer will consume (30*30)*(3*3*3*64) + (30*30)*64
parameters
# add a 3x3 unshared weights convolution on top, with 32 output filters:
model.add(LocallyConnected2D(32, (3, 3)))
# now model.output_shape == (None, 28, 28, 32)
输入形状:
具有形状的 4D 张量:(samples, channels, rows, cols)
if data_format='channels_first' 或具有形状的 4D 张量:(samples, rows, cols, channels)
if data_format='channels_last'。
输出形状:
具有形状的 4D 张量:(samples, filters, new_rows, new_cols)
if data_format='channels_first' 或具有形状的 4D 张量:(samples, new_rows, new_cols, filters)
if data_format='channels_last'。 rows
和 cols
值可能由于填充而发生了变化。
相关用法
- Python tf.keras.layers.LocallyConnected1D用法及代码示例
- Python tf.keras.layers.LayerNormalization用法及代码示例
- Python tf.keras.layers.Lambda用法及代码示例
- Python tf.keras.layers.LSTMCell用法及代码示例
- Python tf.keras.layers.Layer用法及代码示例
- Python tf.keras.layers.Layer.add_loss用法及代码示例
- Python tf.keras.layers.Layer.add_metric用法及代码示例
- Python tf.keras.layers.Layer.set_weights用法及代码示例
- Python tf.keras.layers.LSTM用法及代码示例
- Python tf.keras.layers.LeakyReLU用法及代码示例
- Python tf.keras.layers.Layer.get_weights用法及代码示例
- Python tf.keras.layers.InputLayer用法及代码示例
- Python tf.keras.layers.serialize用法及代码示例
- Python tf.keras.layers.Dropout用法及代码示例
- Python tf.keras.layers.maximum用法及代码示例
- Python tf.keras.layers.Conv2D用法及代码示例
- Python tf.keras.layers.RepeatVector用法及代码示例
- Python tf.keras.layers.Multiply用法及代码示例
- Python tf.keras.layers.Activation用法及代码示例
- Python tf.keras.layers.Conv1D用法及代码示例
注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.layers.LocallyConnected2D。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。