Locally-connected 層用於一維輸入。
用法
tf.keras.layers.LocallyConnected1D(
filters, kernel_size, strides=1, padding='valid', data_format=None,
activation=None, use_bias=True, kernel_initializer='glorot_uniform',
bias_initializer='zeros', kernel_regularizer=None,
bias_regularizer=None, activity_regularizer=None, kernel_constraint=None,
bias_constraint=None, implementation=1, **kwargs
)
參數
-
filters
整數,輸出空間的維度(即卷積中輸出濾波器的數量)。 -
kernel_size
一個整數或單個整數的元組/列表,指定一維卷積窗口的長度。 -
strides
一個整數或單個整數的元組/列表,指定卷積的步長。 -
padding
目前僅支持"valid"
(不區分大小寫)。將來可能會支持"same"
。"valid"
表示沒有填充。 -
data_format
一個字符串,是channels_last
(默認)或channels_first
之一。輸入中維度的排序。channels_last
對應於形狀為(batch, length, channels)
的輸入,而channels_first
對應於形狀為(batch, channels, length)
的輸入。它默認為您的 Keras 配置文件中的image_data_format
值~/.keras/keras.json
。如果您從未設置它,那麽它將是"channels_last"。 -
activation
要使用的激活函數。如果您未指定任何內容,則不會應用任何激活(即 "linear" 激活:a(x) = x
)。 -
use_bias
布爾值,層是否使用偏置向量。 -
kernel_initializer
kernel
權重矩陣的初始化程序。 -
bias_initializer
偏置向量的初始化器。 -
kernel_regularizer
應用於kernel
權重矩陣的正則化函數。 -
bias_regularizer
應用於偏置向量的正則化函數。 -
activity_regularizer
應用於層輸出的正則化函數(其"activation").. -
kernel_constraint
應用於核矩陣的約束函數。 -
bias_constraint
應用於偏置向量的約束函數。 -
implementation
實現模式,可以是1
,2
,也可以是3
。1
循環輸入空間位置以執行前向傳遞。它節省內存,但執行很多(小)操作。2
將層權重存儲在一個密集但 sparsely-populated 2D 矩陣中,並將前向傳遞實現為單個 matrix-multiply。它使用大量 RAM,但執行很少(大)操作。3
將層權重存儲在稀疏張量中,並將前向傳遞實現為單個稀疏matrix-multiply。如何選擇:1
:大,密集模型,2
:小模型,3
:大,稀疏模型,其中"large"代表大輸入/輸出激活(即許多filters
,input_filters
,大input_size
,output_size
) 和 "sparse" 代表輸入和輸出之間的連接少,即小比率filters * input_filters * kernel_size / (input_size * strides)
,其中假設層的輸入和輸出分別具有形狀(input_size, input_filters)
,(output_size, filters)
。建議在感興趣的設置中對每個進行基準測試,以選擇最有效的一個(在速度和內存使用方麵)。正確選擇實現可以顯著提高速度(例如 50 倍),但可能會以 RAM 為代價。此外,implementation=1
僅支持padding="valid"
。
LocallyConnected1D
層的工作方式與Conv1D
層類似,不同之處在於權重是不共享的,即在輸入的每個不同塊上應用一組不同的過濾器。
注意:圖層調用一次後不能修改圖層屬性(trainable
屬性除外)。
例子:
# apply a unshared weight convolution 1d of length 3 to a sequence with
# 10 timesteps, with 64 output filters
model = Sequential()
model.add(LocallyConnected1D(64, 3, input_shape=(10, 32)))
# now model.output_shape == (None, 8, 64)
# add a new conv1d on top
model.add(LocallyConnected1D(32, 3))
# now model.output_shape == (None, 6, 32)
輸入形狀:
具有形狀的 3D 張量:(batch_size, steps, input_dim)
輸出形狀:
具有形狀的 3D 張量:(batch_size, new_steps, filters)
steps
值可能由於填充或步幅而改變。
相關用法
- Python tf.keras.layers.LocallyConnected2D用法及代碼示例
- Python tf.keras.layers.LayerNormalization用法及代碼示例
- Python tf.keras.layers.Lambda用法及代碼示例
- Python tf.keras.layers.LSTMCell用法及代碼示例
- Python tf.keras.layers.Layer用法及代碼示例
- Python tf.keras.layers.Layer.add_loss用法及代碼示例
- Python tf.keras.layers.Layer.add_metric用法及代碼示例
- Python tf.keras.layers.Layer.set_weights用法及代碼示例
- Python tf.keras.layers.LSTM用法及代碼示例
- Python tf.keras.layers.LeakyReLU用法及代碼示例
- Python tf.keras.layers.Layer.get_weights用法及代碼示例
- Python tf.keras.layers.InputLayer用法及代碼示例
- Python tf.keras.layers.serialize用法及代碼示例
- Python tf.keras.layers.Dropout用法及代碼示例
- Python tf.keras.layers.maximum用法及代碼示例
- Python tf.keras.layers.Conv2D用法及代碼示例
- Python tf.keras.layers.RepeatVector用法及代碼示例
- Python tf.keras.layers.Multiply用法及代碼示例
- Python tf.keras.layers.Activation用法及代碼示例
- Python tf.keras.layers.Conv1D用法及代碼示例
注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.layers.LocallyConnected1D。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。