当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.keras.layers.LocallyConnected1D用法及代码示例


Locally-connected 层用于一维输入。

继承自:LayerModule

用法

tf.keras.layers.LocallyConnected1D(
    filters, kernel_size, strides=1, padding='valid', data_format=None,
    activation=None, use_bias=True, kernel_initializer='glorot_uniform',
    bias_initializer='zeros', kernel_regularizer=None,
    bias_regularizer=None, activity_regularizer=None, kernel_constraint=None,
    bias_constraint=None, implementation=1, **kwargs
)

参数

  • filters 整数,输出空间的维度(即卷积中输出滤波器的数量)。
  • kernel_size 一个整数或单个整数的元组/列表,指定一维卷积窗口的长度。
  • strides 一个整数或单个整数的元组/列表,指定卷积的步长。
  • padding 目前仅支持"valid"(不区分大小写)。将来可能会支持"same""valid" 表示没有填充。
  • data_format 一个字符串,是 channels_last (默认)或 channels_first 之一。输入中维度的排序。 channels_last 对应于形状为 (batch, length, channels) 的输入,而 channels_first 对应于形状为 (batch, channels, length) 的输入。它默认为您的 Keras 配置文件中的 image_data_format~/.keras/keras.json 。如果您从未设置它,那么它将是"channels_last"。
  • activation 要使用的激活函数。如果您未指定任何内容,则不会应用任何激活(即 "linear" 激活:a(x) = x )。
  • use_bias 布尔值,层是否使用偏置向量。
  • kernel_initializer kernel 权重矩阵的初始化程序。
  • bias_initializer 偏置向量的初始化器。
  • kernel_regularizer 应用于kernel 权重矩阵的正则化函数。
  • bias_regularizer 应用于偏置向量的正则化函数。
  • activity_regularizer 应用于层输出的正则化函数(其"activation")..
  • kernel_constraint 应用于核矩阵的约束函数。
  • bias_constraint 应用于偏置向量的约束函数。
  • implementation 实现模式,可以是 1 , 2 ,也可以是 31 循环输入空间位置以执行前向传递。它节省内存,但执行很多(小)操作。 2 将层权重存储在一个密集但 sparsely-populated 2D 矩阵中,并将前向传递实现为单个 matrix-multiply。它使用大量 RAM,但执行很少(大)操作。 3 将层权重存储在稀疏张量中,并将前向传递实现为单个稀疏matrix-multiply。如何选择:1:大,密集模型,2:小模型,3:大,稀疏模型,其中"large"代表大输入/输出激活(即许多filters , input_filters,大input_size , output_size ) 和 "sparse" 代表输入和输出之间的连接少,即小比率 filters * input_filters * kernel_size / (input_size * strides) ,其中假设层的输入和输出分别具有形状 (input_size, input_filters) , (output_size, filters)。建议在感兴趣的设置中对每个进行基准测试,以选择最有效的一个(在速度和内存使用方面)。正确选择实现可以显著提高速度(例如 50 倍),但可能会以 RAM 为代价。此外,implementation=1 仅支持 padding="valid"

LocallyConnected1D 层的工作方式与Conv1D 层类似,不同之处在于权重是不共享的,即在输入的每个不同块上应用一组不同的过滤器。

注意:图层调用一次后不能修改图层属性(trainable 属性除外)。

例子:

# apply a unshared weight convolution 1d of length 3 to a sequence with
    # 10 timesteps, with 64 output filters
    model = Sequential()
    model.add(LocallyConnected1D(64, 3, input_shape=(10, 32)))
    # now model.output_shape == (None, 8, 64)
    # add a new conv1d on top
    model.add(LocallyConnected1D(32, 3))
    # now model.output_shape == (None, 6, 32)

输入形状:

具有形状的 3D 张量:(batch_size, steps, input_dim)

输出形状:

具有形状的 3D 张量:(batch_size, new_steps, filters) steps 值可能由于填充或步幅而改变。

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.keras.layers.LocallyConnected1D。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。