當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.compat.v1.keras.initializers.VarianceScaling用法及代碼示例


初始化器能夠使其規模適應權重張量的形狀。

用法

tf.compat.v1.keras.initializers.VarianceScaling(
    scale=1.0, mode='fan_in', distribution='truncated_normal',
    seed=None, dtype=tf.dtypes.float32
)

參數

  • scale 比例因子(正浮點數)。
  • mode "fan_in"、"fan_out"、"fan_avg" 之一。
  • distribution 隨機分布使用。 "normal"、"uniform" 之一。
  • seed 一個 Python 整數。用於創建隨機種子。有關行為,請參見tf.compat.v1.set_random_seed
  • dtype 默認數據類型,如果在調用初始化程序時沒有提供 dtype 參數,則使用該類型。僅支持浮點類型。

拋出

  • ValueError 如果 "scale"、mode" 或 "distribution" 參數的值無效。

遷移到 TF2

警告:這個 API 是為 TensorFlow v1 設計的。繼續閱讀有關如何從該 API 遷移到本機 TensorFlow v2 等效項的詳細信息。見TensorFlow v1 到 TensorFlow v2 遷移指南有關如何遷移其餘代碼的說明。

雖然它是一個遺留的 compat.v1 API,但此符號與即刻執行和 tf.function 兼容。

要切換到 TF2 API,請轉為使用 tf.initializers.variance_scalingtf.keras.initializers.VarianceScaling(均來自 compat.v1 )並在調用初始化程序時傳遞 dtype。

到 TF2 的結構映射

前:

initializer = tf.compat.v1.variance_scaling_initializer(
  scale=scale,
  mode=mode,
  distribution=distribution
  seed=seed,
  dtype=dtype)

weight_one = tf.Variable(initializer(shape_one))
weight_two = tf.Variable(initializer(shape_two))

後:

initializer = tf.keras.initializers.VarianceScaling(
  scale=scale,
  mode=mode,
  distribution=distribution
  seed=seed)

weight_one = tf.Variable(initializer(shape_one, dtype=dtype))
weight_two = tf.Variable(initializer(shape_two, dtype=dtype))

如何映射參數

TF1 參數名稱 TF2 參數名稱 注意
scale scale 沒有更改默認值
mode mode 沒有更改默認值
distribution distribution 沒有更改默認值。 'normal' 映射到 'truncated_normal'
seed seed
dtype dtype TF2 api 僅將其作為 __call__ arg,而不是構造函數 arg。
partition_info - (TF1 中的 __call__ arg)不支持

使用 distribution="truncated_normal" or "untruncated_normal" ,樣本是從均值為零和標準偏差(截斷後,如果使用)的截斷/未截斷正態分布中抽取的 stddev = sqrt(scale / n) 其中 n 是:

  • 權重張量中的輸入單元數,如果 mode = "fan_in"
  • 輸出單元的數量,如果模式 = "fan_out"
  • 輸入和輸出單元數量的平均值,如果 mode = "fan_avg"

使用 distribution="uniform" ,使用 limit = sqrt(3 * scale / n) 從 [-limit, limit] 內的均勻分布中抽取樣本。

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.compat.v1.keras.initializers.VarianceScaling。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。