當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Tensorflow.js tf.layers.prelu()用法及代碼示例


Tensorflow.js是Google開發的開源工具包,用於在瀏覽器或節點平台上執行機器學習模型和深度學習神經網絡。它還使開發人員能夠在 JavaScript 中創建機器學習模型,並直接在瀏覽器中或通過 Node.js 使用它們。

tf.layers.prelu() 函數用於對數據應用泄漏修正線性單元激活函數的參數化版本。

用法:

tf.layers.prelu(args?)

輸入形狀:任意。當使用該層作為模型中的初始層時,請使用 inputShape 配置。

輸出形狀:輸出與輸入具有相同的形狀。

參數:它接受 args 對象,該對象可以具有以下屬性:

  • args:它是一個包含以下屬性的對象:
    • alphaInitializer:可學習 alpha 的初始值設定項。
    • alphaRegularizer:對於可學習的 alpha,這是正則化器。
    • alphaConstraint:對於可學習的阿爾法來說,這就是限製。
    • sharedAxes:激活函數的可學習參數應共享的軸
    • inputShape:如果設置了此屬性,它將用於構造一個輸入層,該輸入層將插入到該層之前。
    • batchInputShape:如果設置了此屬性,將創建一個輸入層並將其插入到該層之前。
    • batchSize:如果未提供batchInputShape而提供了inputShape,則使用batchSize來構建batchInputShape。
    • dtype:這是該層的數據類型。 float32 是默認值。該參數僅適用於輸入層。
    • name:這是圖層的名稱,是字符串類型。
    • trainable:如果該層的權重可以通過擬合來改變。 True 是默認值。
    • weights:圖層的初始權重值。

返回:它返回一個對象(PReLU)。

示例 1:

Javascript


import * as tf from "@tensorflow/tfjs"; 
  
const pReLULayer = tf.layers.prelu({ 
    alphaInitializer: 'glorotUniform'
}); 
      
const x = tf.tensor([11, -8, -9, 12]); 
  
pReLULayer.apply(x).print();

輸出:

Tensor
   [11, -6.450459, -7.2567663, 12]

示例 2:

Javascript


import * as tf from "@tensorflow/tfjs"; 
  
const pReLULayer = tf.layers.prelu({ 
    alphaInitializer: 'glorotUniform'
}); 
      
const x = tf.tensor([1.12, -0.8, 1.9,  
    0.12, 0.25, -3.4], [2, 3]); 
  
pReLULayer.apply(x).print();

輸出:

Tensor
   [[1.12, 0.5329878, 1.9       ],
    [0.12, 0.25     , -3.0655782]]

參考: https://js.tensorflow.org/api/latest/#layers.prelu



相關用法


注:本文由純淨天空篩選整理自aayushmohansinha大神的英文原創作品 Tensorflow.js tf.layers.prelu() Function。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。