當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.keras.layers.LocallyConnected2D用法及代碼示例


Locally-connected 層用於 2D 輸入。

繼承自:LayerModule

用法

tf.keras.layers.LocallyConnected2D(
    filters, kernel_size, strides=(1, 1), padding='valid',
    data_format=None, activation=None, use_bias=True,
    kernel_initializer='glorot_uniform',
    bias_initializer='zeros', kernel_regularizer=None,
    bias_regularizer=None, activity_regularizer=None, kernel_constraint=None,
    bias_constraint=None, implementation=1, **kwargs
)

參數

  • filters 整數,輸出空間的維度(即卷積中輸出濾波器的數量)。
  • kernel_size 一個整數或 2 個整數的元組/列表,指定 2D 卷積窗口的寬度和高度。可以是單個整數,為所有空間維度指定相同的值。
  • strides 一個整數或 2 個整數的元組/列表,指定卷積沿寬度和高度的步幅。可以是單個整數,為所有空間維度指定相同的值。
  • padding 目前僅支持"valid"(不區分大小寫)。將來會支持"same""valid" 表示沒有填充。
  • data_format 一個字符串,是 channels_last (默認)或 channels_first 之一。輸入中維度的排序。 channels_last 對應於形狀為 (batch, height, width, channels) 的輸入,而 channels_first 對應於形狀為 (batch, channels, height, width) 的輸入。它默認為您的 Keras 配置文件中的 image_data_format~/.keras/keras.json 。如果您從未設置它,那麽它將是"channels_last"。
  • activation 要使用的激活函數。如果您未指定任何內容,則不會應用任何激活(即 "linear" 激活:a(x) = x )。
  • use_bias 布爾值,層是否使用偏置向量。
  • kernel_initializer kernel 權重矩陣的初始化程序。
  • bias_initializer 偏置向量的初始化器。
  • kernel_regularizer 應用於kernel 權重矩陣的正則化函數。
  • bias_regularizer 應用於偏置向量的正則化函數。
  • activity_regularizer 應用於層輸出的正則化函數("activation")。
  • kernel_constraint 應用於核矩陣的約束函數。
  • bias_constraint 應用於偏置向量的約束函數。
  • implementation 實現模式,可以是 1 , 2 ,也可以是 31 循環輸入空間位置以執行前向傳遞。它節省內存,但執行很多(小)操作。 2 將層權重存儲在一個密集但 sparsely-populated 2D 矩陣中,並將前向傳遞實現為單個 matrix-multiply。它使用大量 RAM,但執行很少(大)操作。 3 將層權重存儲在稀疏張量中,並將前向傳遞實現為單個稀疏matrix-multiply。如何選擇:1:大,密集模型,2:小模型,3:大,稀疏模型,其中"large"代表大輸入/輸出激活(即許多filters , input_filters,大np.prod(input_size) , np.prod(output_size) ) 和 "sparse" 代表輸入和輸出之間的連接少,即小比率 filters * input_filters * np.prod(kernel_size) / (np.prod(input_size) * np.prod(strides)) ,其中假設層的輸入和輸出分別具有形狀 input_size + (input_filters,) , output_size + (filters,)。建議在感興趣的設置中對每個進行基準測試,以選擇最有效的一個(在速度和內存使用方麵)。正確選擇實現可以顯著提高速度(例如 50 倍),但可能會以 RAM 為代價。此外,implementation=1 僅支持 padding="valid"

LocallyConnected2D 層的工作方式與Conv2D 層類似,不同之處在於權重是不共享的,即在輸入的每個不同塊上應用一組不同的過濾器。

注意:圖層調用一次後不能修改圖層屬性(trainable 屬性除外)。

例子:

# apply a 3x3 unshared weights convolution with 64 output filters on a
    32x32 image
    # with `data_format="channels_last"`:
    model = Sequential()
    model.add(LocallyConnected2D(64, (3, 3), input_shape=(32, 32, 3)))
    # now model.output_shape == (None, 30, 30, 64)
    # notice that this layer will consume (30*30)*(3*3*3*64) + (30*30)*64
    parameters

    # add a 3x3 unshared weights convolution on top, with 32 output filters:
    model.add(LocallyConnected2D(32, (3, 3)))
    # now model.output_shape == (None, 28, 28, 32)

輸入形狀:

具有形狀的 4D 張量:(samples, channels, rows, cols) if data_format='channels_first' 或具有形狀的 4D 張量:(samples, rows, cols, channels) if data_format='channels_last'。

輸出形狀:

具有形狀的 4D 張量:(samples, filters, new_rows, new_cols) if data_format='channels_first' 或具有形狀的 4D 張量:(samples, new_rows, new_cols, filters) if data_format='channels_last'。 rowscols 值可能由於填充而發生了變化。

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.keras.layers.LocallyConnected2D。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。